KI Engineering & LLMs
Baue, evaluiere und betreibe LLM-Anwendungen, die im Alltag bestehen: RAG, Agents, Guardrails, Monitoring und Kostenkontrolle.
Alle Kurse anzeigenÜberblick
Alle Schulungen
15 KurseKurse für Machine Learning mit Python
Python mit Tensorflow: Grundkurs
Python Deep-Dive Kurs: Deep Learning, Neuronale Netze & Visualisierung
Natural Language Processing Grundkurs: Plattformen und Frameworks im Überblick
Python Machine Learning Grundkurs: Professioneller Einstieg
Kein passender Termin dabei?
Wir bieten die Kurse auch als Inhouse oder Firmenseminar an - vor Ort oder Live-Online.
Pytorch Grundkurs: Deep Learning mit MLP und CNN
Kurse für Large Language Models
Large Language Model Grundkurs: Einsatz und Überblick
Large Language Models Aufbaukurs: RAG, Anpassung und Training
Large Language Models Advanced: Eigene LLMs und Tuning
Large Language Model Strategie: Alles für Entscheider
Kurse für LLM Sicherheit
LLM Security: Injections erkennen & abwehren
Workshop für dein Team
Wir arbeiten direkt an euren eigenen Themen - effizient und praxisnah.
Kurse für Open Source LLMs
Open-Source-LLMs lokal betreiben: Grundkurs
KI-gestützte Datenbanksuche: Aufbaukurs
Open-Source LLM Fine-Tuning für Entwickler
Neo4j Graph-Datenbanken für KI
Passendes Seminar nicht dabei?
Wir erstellen dir gern ein individuelles Trainingsangebot.
Keine Schulungen gefunden
Bitte passe deine Filter an.
Die nächsten Garantie-Termine
Large Language Model Grundkurs: Einsatz und Überblick
Large Language Models Advanced: Eigene LLMs und Tuning
Python Deep-Dive Kurs: Deep Learning, Neuronale Netze & Visualisierung
Python Einstieg mit Machine Learning: Grundkurs
Python mit Tensorflow: Grundkurs
LLM Security: Injections erkennen & abwehren
Large Language Model Strategie: Alles für Entscheider
Large Language Models Aufbaukurs: RAG, Anpassung und Training
Python Machine Learning Grundkurs: Professioneller Einstieg
Large Language Model Strategie: Alles für Entscheider
KI-gestützte Datenbanksuche: Aufbaukurs
Large Language Models Aufbaukurs: RAG, Anpassung und Training
Large Language Model Grundkurs: Einsatz und Überblick
Open-Source-LLMs lokal betreiben: Grundkurs
Open-Source LLM Fine-Tuning für Entwickler
Fragen und Antworten zu KI Engineering & LLMs
Was ist der Unterschied zwischen Prompting und KI Engineering mit LLMs?
Welche Skills brauche ich für produktive RAG- und Agent-Systeme?
Wie reduziert man Halluzinationen und Sicherheitsrisiken in LLM-Anwendungen?
Für wen sind diese Kurse geeignet?
Weitere häufig gestellte Fragen und Antworten findest du in den FAQs .
Wer nach Weiterbildung zu KI Engineering, LLMs oder LLMOps sucht, will meist mehr als Prompting: Es geht um Systeme, die in der Praxis funktionieren, auditierbar sind und wirtschaftlich bleiben. Genau darauf zielt diese Kurs-Kategorie. Du lernst, wie du LLM-Anwendungen entwirfst, implementierst und betreibst, inklusive Evaluationsstrategie, Datenanbindung und Sicherheitskonzept.
Zentrale Inhalte sind Retrieval-Augmented Generation (RAG) mit Vektordatenbanken, Chunking-Strategien, Re-Ranking, Kontextfenster-Management und Quellenzitierung, damit Antworten nachvollziehbar werden. Dazu kommen Tool- und Function-Calling, Agent-Design, Workflow-Orchestrierung und robuste Fehlerbehandlung. Ein weiterer Fokus liegt auf Guardrails: Prompt-Injection-Abwehr, Output-Validierung, Policy-Checks, PII-Handling und Rechtekonzepte für Unternehmensdaten.
Ein entscheidender Erfolgsfaktor ist Evaluation. Kurse behandeln Testdatensätze, Golden Sets, automatische Metriken, Human-in-the-Loop, A/B-Tests sowie Regressionstests für Prompts, Modelle und Retrieval. Damit lassen sich Qualität, Sicherheit und Konsistenz über Releases hinweg messen. Ergänzend lernst du Monitoring und Observability: Latenz, Kosten pro Anfrage, Token-Budgets, Fehlerklassen, Drift, Nutzerfeedback und Incident-Prozesse.
Für Teams, die LLMs in Produkte bringen, sind außerdem Modellwahl und Betrieb entscheidend: Open-Source vs. proprietäre Modelle, On-Premises vs. Cloud, Caching, Batch-Inferenz, Rate-Limits und Governance. Diese Weiterbildungen helfen dir, aus einem Demo-Chatbot eine belastbare Lösung zu machen, die in Support, Wissensmanagement, Softwareentwicklung oder Fachabteilungen echte Ergebnisse liefert.