LLM Security: Injections erkennen & abwehren
Schulungen zur Künstlichen Intelligenz (KI + ML) 2 Tage
- Termin
- Inhouse
- Individuell
Präsenz oder Online
Schulungszeiten:
bis
Uhr
(
2 Tage)
Nächster Präsenz-Termin
09.04.2026
2 Tage
München
1.490,00 € zzgl. 19% USt.
1.773,10 € inkl. 19% USt.
inkl. Verpflegung und Kursmaterial
1.773,10 € inkl. 19% USt.
inkl. Verpflegung und Kursmaterial
Nächster Online Kurs
09.04.2026
2 Tage
1.490,00 € zzgl. 19% USt.
1.773,10 € inkl. 19% USt.
inkl. Kursmaterial
1.773,10 € inkl. 19% USt.
inkl. Kursmaterial
Bei Ihnen vor Ort.
Inhouse-Schulungen finden nur für Ihre Teilnehmer bei Ihnen vor Ort statt. Termine und
Inhalte werden mit Ihnen abgestimmt.
Komplett nach Ihren Wünschen.
Von Firmen-Schulungen nur für Ihre Mitarbeiter, bis hin zu
individuellem Consulting oder Coaching mit Ihren Themen, Terminen und Orten.
Große Sprachmodelle transformieren Unternehmen, öffnen jedoch völlig neue Angriffsvektoren, die klassische Firewalls oft ignorieren. In diesem Training tauchen Sie tief in die Welt der LLM-Sicherheit ein. Wir analysieren die OWASP Top 10 für Large Language Models und demonstrieren praxisnah, wie Angreifer durch Prompt Injection, Jailbreaking und Model Denial of Service KI-Systeme manipulieren. Sie lernen nicht nur die theoretischen Angriffsflächen kennen, sondern führen in einer geschützten Umgebung selbst Angriffe durch, um die Schwachstellen zu verstehen (Red Teaming). Anschließend implementieren wir robuste Verteidigungsstrategien, Validierungsschichten und Guardrails, um KI-Anwendungen widerstandsfähig gegen Manipulation und Datenabfluss zu machen. Sichern Sie Ihre KI-Integrationen ab, bevor sie produktiv gehen.
Zielgruppe
- IT-Sicherheitsbeauftragte und Penetration Tester
- Softwareentwickler und Data Scientists im KI-Umfeld
- DevSecOps-Ingenieure
- Für alle, die KI-Anwendungen nicht nur entwickeln, sondern vor gezielten Manipulationen schützen müssen.
Voraussetzungen für die Schulung
- Grundlegende Kenntnisse in Python
- Verständnis der Funktionsweise von LLMs (Prompts, Context Window)
- Erfahrung mit APIs (REST) ist hilfreich
5 Tage
Präsenz oder Online
1.850,00 € zzgl. 19% USt.
2.201,50 € inkl. 19% USt.
2.201,50 € inkl. 19% USt.
2 Tage
Präsenz oder Online
1.090,00 € zzgl. 19% USt.
1.297,10 € inkl. 19% USt.
1.297,10 € inkl. 19% USt.
2 Tage
Präsenz oder Online
1.049,00 € zzgl. 19% USt.
1.248,31 € inkl. 19% USt.
1.248,31 € inkl. 19% USt.
Kursinhalte
- Grundlagen der LLM-Architektur und Angriffsflächen
- Funktionsweise von Transformern und Tokenizern aus Sicherheitsperspektive
- Unterschiede zwischen klassischer AppSec und LLM-Security
- Überblick über die OWASP Top 10 für Large Language Models
- Lifecycle einer KI-Anwendung und kritische Punkte
- Prompt Injection und Jailbreaking (Red Teaming)
- Direkte Prompt Injection (DAN, Developer Mode, Obfuscation)
- Jailbreaking-Techniken zur Umgehung von Sicherheitsrichtlinien
- Automatisierte Angriffe auf LLM-APIs
- Payload-Generierung und Token-Manipulation
- Indirect Prompt Injection und RAG-Security
- Angriffsvektoren über externe Datenquellen (E-Mails, Websites)
- Manipulation von Retrieval Augmented Generation (RAG) Systemen
- Versteckte Instruktionen in Dokumenten und Bildern
- Exfiltration von Unternehmensdaten durch Prompt-Hacking
- Abwehrstrategien und Defense-in-Depth
- Implementierung von Input- und Output-Filtern
- Einsatz von LLM-Firewalls und Guardrails (z. B. NVIDIA NeMo)
- Prompt-Härtung und System-Prompt-Design
- Erkennung von adversarialen Eingaben
- Governance und sicherer Betrieb
- Monitoring und Logging von LLM-Interaktionen
- Rate Limiting gegen Model Denial of Service
- Richtlinien für den sicheren Einsatz von Generativer KI
- Aufbau einer internen Red Teaming Strategie
Häufig gestellte Fragen
Nein, wir stellen alle notwendigen Cloud-Umgebungen und API-Zugriffe für die Übungen bereit.
Wir nutzen lokale Modelle und kontrollierte Umgebungen, um Prinzipien zu lernen, die auf alle LLMs (inkl. GPT-4, Llama 3, Claude) anwendbar sind. Der Fokus liegt auf dem Schutz eigener Integrationen.
Agenda und Seminarplan
- Tag 1: Angriffstechniken und Schwachstellenanalyse
- Tag 2: Verteidigung, Guardrails und Architektur
Fokus auf die Offensive: Wir analysieren die OWASP Top 10 für LLMs und führen praktische Angriffe durch. Von einfachen Jailbreaks bis zu komplexen Indirect Prompt Injections lernen wir, wie Modelle manipuliert werden können.
Fokus auf die Defensive: Wir bauen Schutzmechanismen auf. Implementierung von NeMo Guardrails, Härtung von System Prompts und Architektur-Patterns zur Isolierung von LLM-Prozessen.
Buchen ohne Risiko
Sie zahlen erst nach erfolgreicher Schulung. Keine Vorkasse.
Lernen von Experten
Zertifizierte und praxiserfahrene TrainerInnen
Inklusive
Mittagessen, Kursmaterial, Zertifikat, WLAN, Getränke uvm.
Gruppengröße
Maximal 8 TeilnehmerInnen
Sprache
Deutsch (Englisch auf Wunsch)
Förderungen
Bis zu 100% Kostenübernahme!
Termine für LLM Security: Injections erkennen & abwehren
Der passende Termin oder Standort ist nicht dabei?
Gerne bieten wir Ihnen eine passende Lösung an.
Ähnliche Schulungen
1 Stunde
Präsenz oder Online
149,00 € zzgl. 19% USt.
177,31 € inkl. 19% USt.
177,31 € inkl. 19% USt.
1 Tag
Präsenz oder Online
690,00 € zzgl. 19% USt.
821,10 € inkl. 19% USt.
821,10 € inkl. 19% USt.
1 Tag
Präsenz oder Online
690,00 € zzgl. 19% USt.
821,10 € inkl. 19% USt.
821,10 € inkl. 19% USt.
1 Tag
Präsenz oder Online
690,00 € zzgl. 19% USt.
821,10 € inkl. 19% USt.
821,10 € inkl. 19% USt.
Noch Fragen?
Rufen Sie mich an oder schreiben Sie mir eine E-Mail!
Michaela Berger