KI Engineering & LLMs

KI Engineering & LLMs

Baue, evaluiere und betreibe LLM-Anwendungen, die im Alltag bestehen: RAG, Agents, Guardrails, Monitoring und Kostenkontrolle.

Alle Kurse anzeigen

Überblick

LLMs sind kein Feature, sondern ein System. In dieser Kategorie lernst du, wie aus Prototypen robuste KI-Produkte werden: mit sauberer Architektur, Evaluationsmethoden, Sicherheit, Betrieb und messbarer Qualität.

Alle Schulungen

15 Kurse

Kurse für Machine Learning mit Python

Logo Python Einstieg mit Machine Learning: Grundkurs

Python Einstieg mit Machine Learning: Grundkurs

Python ist die Sprache der Datenanalyse und der Künstlichen Intelligenz. In diesem praxisnahen Seminar lernen Sie Schritt für Schritt, wie Sie mit Python arbeiten, Daten effizient auswerten und erste..
2.590,00 € zzgl. MwSt.
Details
Dauer: 5 Tage
Level:
Grundlagen
Nächster Termin: 13.07.2026 & 2 weitere
Teilnahme: Live-Online · Vor Ort (bundesweit)
Garantie
Logo Python mit Tensorflow: Grundkurs

Python mit Tensorflow: Grundkurs

In diesem Seminar lernst Du, wie Du mit Python und TensorFlow moderne Machine-Learning- und Deep-Learning-Modelle praxisnah umsetzt. Du verstehst das Prinzip und die Arbeitsweise künstlicher neuronaler..
950,00 € zzgl. MwSt.
Details
Dauer: 2 Tage
Level:
Aufbau
Nächster Termin: 27.08.2026 & 1 weitere
Teilnahme: Live-Online · Vor Ort (bundesweit)
Garantie

Kein passender Termin dabei?

Wir bieten die Kurse auch als Inhouse oder Firmenseminar an - vor Ort oder Live-Online.

Kurse für Large Language Models

Kurse für LLM Sicherheit

Logo LLM Security: Injections erkennen & abwehren

LLM Security: Injections erkennen & abwehren

Große Sprachmodelle transformieren Unternehmen, öffnen jedoch völlig neue Angriffsvektoren, die klassische Firewalls oft ignorieren. In diesem Training tauchen Sie tief in die Welt der LLM-Sicherheit ein. Wir..
1.490,00 € zzgl. MwSt.
Details
Dauer: 2 Tage
Level:
Advanced
Nächster Termin: 15.07.2026 & 2 weitere
Teilnahme: Live-Online · Vor Ort (bundesweit)

Workshop für dein Team

Wir arbeiten direkt an euren eigenen Themen - effizient und praxisnah.

Kurse für Open Source LLMs

Passendes Seminar nicht dabei?

Wir erstellen dir gern ein individuelles Trainingsangebot.

KI Engineering mit LLMs bedeutet, Sprachmodelle nicht nur „zum Laufen“ zu bringen, sondern zuverlässig in Prozesse, Produkte und Plattformen zu integrieren. Diese Kurse fokussieren den Weg von der Idee bis zum Betrieb: Anforderungen, Architekturentscheidungen, Daten- und Wissensquellen, Qualitätssicherung und Kostensteuerung. Im Mittelpunkt stehen praxisnahe Muster wie Retrieval-Augmented Generation (RAG) mit Vektordatenbanken, Tool- und Function-Calling, Agents und Orchestrierung, Prompt- und Kontext-Engineering sowie strukturierte Ausgaben (z.B. JSON). Du lernst, wie du Halluzinationen reduzierst, Guardrails definierst, sensible Daten schützt und Compliance-Anforderungen berücksichtigst. Ein weiterer Schwerpunkt ist Evaluation: Testsets, automatische und menschliche Bewertungen, Regressionstests, Prompt- und Modellvergleiche sowie Monitoring im Betrieb. Ergänzt wird das durch MLOps/LLMOps-Themen wie Deployment, Observability, Incident-Handling, Kosten- und Latenzoptimierung und die Auswahl geeigneter Modelle (Open-Source vs. kommerziell). Ziel ist eine belastbare Skill-Basis, um LLM-Lösungen produktiv, skalierbar und verantwortbar umzusetzen.

Fragen und Antworten zu KI Engineering & LLMs

Was ist der Unterschied zwischen Prompting und KI Engineering mit LLMs?
Prompting optimiert einzelne Eingaben. KI Engineering betrachtet das Gesamtsystem: Datenanbindung (z.B. RAG), Architektur, Evaluation, Sicherheit, Deployment, Monitoring und Kostenkontrolle, damit die Lösung zuverlässig produktiv läuft.
Welche Skills brauche ich für produktive RAG- und Agent-Systeme?
Wichtig sind Daten- und Retrieval-Design (Chunking, Embeddings, Re-Ranking), saubere Schnittstellen (Tool-/Function-Calling), Output-Validierung, Test- und Evaluationsmethoden sowie Observability und Betrieb (LLMOps).
Wie reduziert man Halluzinationen und Sicherheitsrisiken in LLM-Anwendungen?
Durch RAG mit geprüften Quellen, klare Instruktionen, strukturierte Ausgaben, Guardrails (Policy-Checks, Prompt-Injection-Schutz), Zugriffskontrollen, PII-Filter und konsequente Evaluation mit Regressionstests.
Für wen sind diese Kurse geeignet?
Für Software Engineers, Data/ML Engineers, Product Owner und Tech Leads, die LLM-Funktionen in Anwendungen integrieren oder bestehende Prototypen in robuste, messbare und betreibbare Lösungen überführen wollen.

Weitere häufig gestellte Fragen und Antworten findest du in den FAQs .

Wer nach Weiterbildung zu KI Engineering, LLMs oder LLMOps sucht, will meist mehr als Prompting: Es geht um Systeme, die in der Praxis funktionieren, auditierbar sind und wirtschaftlich bleiben. Genau darauf zielt diese Kurs-Kategorie. Du lernst, wie du LLM-Anwendungen entwirfst, implementierst und betreibst, inklusive Evaluationsstrategie, Datenanbindung und Sicherheitskonzept.

Zentrale Inhalte sind Retrieval-Augmented Generation (RAG) mit Vektordatenbanken, Chunking-Strategien, Re-Ranking, Kontextfenster-Management und Quellenzitierung, damit Antworten nachvollziehbar werden. Dazu kommen Tool- und Function-Calling, Agent-Design, Workflow-Orchestrierung und robuste Fehlerbehandlung. Ein weiterer Fokus liegt auf Guardrails: Prompt-Injection-Abwehr, Output-Validierung, Policy-Checks, PII-Handling und Rechtekonzepte für Unternehmensdaten.

Ein entscheidender Erfolgsfaktor ist Evaluation. Kurse behandeln Testdatensätze, Golden Sets, automatische Metriken, Human-in-the-Loop, A/B-Tests sowie Regressionstests für Prompts, Modelle und Retrieval. Damit lassen sich Qualität, Sicherheit und Konsistenz über Releases hinweg messen. Ergänzend lernst du Monitoring und Observability: Latenz, Kosten pro Anfrage, Token-Budgets, Fehlerklassen, Drift, Nutzerfeedback und Incident-Prozesse.

Für Teams, die LLMs in Produkte bringen, sind außerdem Modellwahl und Betrieb entscheidend: Open-Source vs. proprietäre Modelle, On-Premises vs. Cloud, Caching, Batch-Inferenz, Rate-Limits und Governance. Diese Weiterbildungen helfen dir, aus einem Demo-Chatbot eine belastbare Lösung zu machen, die in Support, Wissensmanagement, Softwareentwicklung oder Fachabteilungen echte Ergebnisse liefert.