KI Sicherheit

KI Sicherheit

Von Prompt Injection bis Model Theft: Schutzmaßnahmen, Tests und Governance für produktive KI-Systeme.

Alle Kurse anzeigen

Überblick

KI-Systeme werden angegriffen wie jede andere Software, nur mit neuen Einfallstoren: Prompts, Daten, Modelle und Agenten. Diese Kategorie zeigt, wie Sie Risiken messbar machen, Angriffe realistisch testen und KI sicher in Betrieb bringen.

Alle Schulungen

18 Kurse

Kurse für LLM Sicherheit

Logo LLM Security: Injections erkennen & abwehren

LLM Security: Injections erkennen & abwehren

Große Sprachmodelle transformieren Unternehmen, öffnen jedoch völlig neue Angriffsvektoren, die klassische Firewalls oft ignorieren. In diesem Training tauchen Sie tief in die Welt der LLM-Sicherheit ein. Wir..
1.490,00 € zzgl. MwSt.
Details
Dauer: 2 Tage
Level:
Advanced
Nächster Termin: 15.07.2026 & 2 weitere
Teilnahme: Live-Online · Vor Ort (bundesweit)

Kurse für KI Datenschutz & Datensicherheit

Kurse für KI Strategische Compliance & Ethik

Kein passender Termin dabei?

Wir bieten die Kurse auch als Inhouse oder Firmenseminar an - vor Ort oder Live-Online.

Workshop für dein Team

Wir arbeiten direkt an euren eigenen Themen - effizient und praxisnah.

Unsicher bei Auswahl oder Niveau?

Wir helfen dir kurz weiter und empfehlen dir das passende Training.

Kurse für KI Recht & Regulierung

Passendes Seminar nicht dabei?

Wir erstellen dir gern ein individuelles Trainingsangebot.

KI Sicherheit umfasst mehr als „sichere Prompts“. Sobald LLMs, RAG-Systeme oder KI-Agenten produktiv gehen, entstehen neue Angriffsflachen: Prompt Injection und Jailbreaks, Datenabfluss uber Retrieval, unsichere Tool-Aufrufe, Model Theft, Supply-Chain-Risiken in Modellen und Abhangigkeiten sowie Manipulation von Trainings- und Feedbackdaten (Data Poisoning).

In diesen Kursen lernen Sie, KI-Anwendungen wie klassische Systeme zu behandeln: Bedrohungsmodellierung, Security-by-Design, sichere Architektur fur RAG und Agenten, Härtung von Schnittstellen, Secrets-Handling, Logging und Monitoring. Sie uben praxisnah Red-Teaming fur LLMs, entwickeln Testkataloge (z.B. fur Prompt Injection, Sensitive Data Exposure, Hallucination-Risiken) und definieren klare Schutzmaßnahmen: Input/Output-Filter, Policy-Enforcement, Sandboxen fur Tools, Least Privilege, Rate Limits und sichere Deployment-Patterns.

Ein weiterer Schwerpunkt ist Governance und Compliance: Risikoanalysen, Dokumentation, Verantwortlichkeiten, Lieferantenbewertung und der Aufbau eines wiederholbaren KI-Sicherheitsprozesses, der mit DevSecOps und bestehenden ISMS-Strukturen zusammenarbeitet.

Fragen und Antworten zu KI Sicherheit

Welche Angriffe deckt KI Sicherheit konkret ab?
Typische Szenarien sind Prompt Injection und Jailbreaks, Datenabfluss uber RAG, unautorisierte Tool- oder API-Aufrufe durch Agenten, Model Theft, Supply-Chain-Risiken sowie Data Poisoning in Trainings- oder Feedbackdaten.
Fur wen sind die Kurse geeignet?
Fur Security Engineers, DevOps/DevSecOps, Software-Architekten, ML/AI Engineers, Produktverantwortliche und GRC/Compliance. Vorkenntnisse in Web- und API-Sicherheit helfen, sind aber je nach Kurs nicht zwingend.
Was sind schnelle, wirksame Schutzmaßnahmen fur LLM-Apps?
Least Privilege fur Tools und Datenquellen, strikte Zugriffskontrollen im Retrieval, Input/Output-Validierung, Policy-Enforcement (Guardrails), Secrets-Management, Rate Limits, isolierte Ausfuhrung von Tool-Calls sowie ein wiederholbarer Testprozess mit Red-Teaming.
Wie testet man KI-Systeme sinnvoll, wenn Ausgaben variieren?
Mit testbaren Sicherheitszielen (z.B. keine Preisgabe sensibler Daten), Angriffskatalogen, deterministischen Test-Setups (Seeds/Constraints), automatisierten Regressionstests, sowie menschlichem Review fur kritische Use Cases. Wichtig ist ein kontinuierlicher Testzyklus, nicht ein einmaliger Audit.

Weitere häufig gestellte Fragen und Antworten findest du in den FAQs .

Wer KI in Produkte, Prozesse oder Kundenkontakt integriert, braucht KI Sicherheit als festen Bestandteil von Architektur, Betrieb und Governance. LLMs, RAG (Retrieval-Augmented Generation) und KI-Agenten erweitern die Angriffsoberflache: Prompts werden zu Eingaben mit Sicherheitsrelevanz, Retrieval verbindet Modelle mit internen Datenquellen, und Agenten fuhren Aktionen uber Tools und APIs aus. Genau hier entstehen reale Risiken wie Prompt Injection, Jailbreaks, Datenabfluss uber Kontextfenster, unautorisierte Tool-Aufrufe, Model Theft oder Manipulation durch Data Poisoning.

Eine Weiterbildung in KI Sicherheit vermittelt Methoden, um diese Risiken nicht nur zu beschreiben, sondern nachweisbar zu beherrschen. Dazu gehoren Threat Modeling fur KI-Workloads, sichere RAG-Architekturen (z.B. Zugriffskontrollen, Dokumentenklassifizierung, Kontextbegrenzung), Guardrails und Policy-Enforcement, sowie Red-Teaming und Security Testing speziell fur LLM-Ausgaben. Praktisch relevant sind auch Monitoring und Incident Response: Welche Signale deuten auf Prompt-Angriffe hin, wie werden Logs datenschutzkonform genutzt, und wie lassen sich Schutzmaßnahmen im laufenden Betrieb iterativ verbessern?

Zusatzlich spielt Governance eine zentrale Rolle: Risiko- und Impact-Assessments, Nachvollziehbarkeit von Entscheidungen, Lieferanten- und Modellbewertung, sichere Nutzung von Open-Source-Komponenten sowie die Einbettung in DevSecOps und ISMS. Diese Kurs-Kategorie richtet sich an Security-Teams, Entwickler, Architekten, Produktverantwortliche und Compliance-Rollen, die KI-Systeme produktiv betreiben wollen, ohne Blindflug bei Sicherheit und Datenabfluss. Ziel ist eine belastbare, prufbare Sicherheitsstrategie fur KI, die Angriffe antizipiert und den Betrieb stabil halt.