KI Engineering & LLMs
Baue, evaluiere und betreibe LLM-Anwendungen, die im Alltag bestehen: RAG, Agents, Guardrails, Monitoring und Kostenkontrolle.
Alle Kurse anzeigenÜberblick
Alle Schulungen
13 KurseKurse für Machine Learning mit Python
Natural Language Processing Plattformen und Frameworks im Überblick
Einführung in Deep Learning mit Pytorch: MLP und CNN
Einstiegskurs: Python mit Tensorflow
Deep Learning, Neuronale Netze & Visualisierung mit Python
Machine Learning mit Python
Kurse für Large Language Models
LLMs und Diffusion Modelle - Aufbau
LLMs und Diffusion Modelle - Grundlagen
LLMs meistern: Fine-Tuning & RAG in Praxis
LLMs im Unternehmen: So entwickeln Sie Ihre individuelle KI-Lösung (Entwickler)
Large Language Models (LLM) & KI - Für Einsteiger
Large Language Model Workshop (LLM) für Entwickler
Kurse für LLM Sicherheit
LLM Security: Injections erkennen & abwehren
Keine Schulungen gefunden
Bitte passe deine Filter an.
Die nächsten Garantie-Termine
Machine Learning mit Python
Large Language Model Workshop (LLM) für Entwickler
LLMs im Unternehmen: So entwickeln Sie Ihre individuelle KI-Lösung (Entwickler)
Einführung in Python und Machine Learning
LLMs und Diffusion Modelle - Aufbau
LLMs und Diffusion Modelle - Grundlagen
Large Language Models (LLM) & KI - Für Einsteiger
Einstiegskurs: Python mit Tensorflow
LLMs und Diffusion Modelle - Aufbau
LLMs und Diffusion Modelle - Grundlagen
Large Language Models (LLM) & KI - Für Einsteiger
LLMs im Unternehmen: So entwickeln Sie Ihre individuelle KI-Lösung (Entwickler)
Einführung in Python und Machine Learning
Einführung in Python und Machine Learning
Deep Learning, Neuronale Netze & Visualisierung mit Python
Fragen und Antworten zu KI Engineering & LLMs
Was ist der Unterschied zwischen Prompting und KI Engineering mit LLMs?
Welche Skills brauche ich für produktive RAG- und Agent-Systeme?
Wie reduziert man Halluzinationen und Sicherheitsrisiken in LLM-Anwendungen?
Für wen sind diese Kurse geeignet?
Weitere häufig gestellte Fragen und Antworten findest du in den FAQs .
Wer nach Weiterbildung zu KI Engineering, LLMs oder LLMOps sucht, will meist mehr als Prompting: Es geht um Systeme, die in der Praxis funktionieren, auditierbar sind und wirtschaftlich bleiben. Genau darauf zielt diese Kurs-Kategorie. Du lernst, wie du LLM-Anwendungen entwirfst, implementierst und betreibst, inklusive Evaluationsstrategie, Datenanbindung und Sicherheitskonzept.
Zentrale Inhalte sind Retrieval-Augmented Generation (RAG) mit Vektordatenbanken, Chunking-Strategien, Re-Ranking, Kontextfenster-Management und Quellenzitierung, damit Antworten nachvollziehbar werden. Dazu kommen Tool- und Function-Calling, Agent-Design, Workflow-Orchestrierung und robuste Fehlerbehandlung. Ein weiterer Fokus liegt auf Guardrails: Prompt-Injection-Abwehr, Output-Validierung, Policy-Checks, PII-Handling und Rechtekonzepte für Unternehmensdaten.
Ein entscheidender Erfolgsfaktor ist Evaluation. Kurse behandeln Testdatensätze, Golden Sets, automatische Metriken, Human-in-the-Loop, A/B-Tests sowie Regressionstests für Prompts, Modelle und Retrieval. Damit lassen sich Qualität, Sicherheit und Konsistenz über Releases hinweg messen. Ergänzend lernst du Monitoring und Observability: Latenz, Kosten pro Anfrage, Token-Budgets, Fehlerklassen, Drift, Nutzerfeedback und Incident-Prozesse.
Für Teams, die LLMs in Produkte bringen, sind außerdem Modellwahl und Betrieb entscheidend: Open-Source vs. proprietäre Modelle, On-Premises vs. Cloud, Caching, Batch-Inferenz, Rate-Limits und Governance. Diese Weiterbildungen helfen dir, aus einem Demo-Chatbot eine belastbare Lösung zu machen, die in Support, Wissensmanagement, Softwareentwicklung oder Fachabteilungen echte Ergebnisse liefert.