Jetzt neu: Umfassendes KI-Schulungsangebot mit über 200 Formaten – für Einsteiger, Fortgeschrittene, Führungskräfte und den öffentlichen Bereich
Mehr erfahren
KI Sicherheit

KI Sicherheit

Von Prompt Injection bis Model Theft: Schutzmaßnahmen, Tests und Governance für produktive KI-Systeme.

Alle Kurse anzeigen

Überblick

KI-Systeme werden angegriffen wie jede andere Software, nur mit neuen Einfallstoren: Prompts, Daten, Modelle und Agenten. Diese Kategorie zeigt, wie Sie Risiken messbar machen, Angriffe realistisch testen und KI sicher in Betrieb bringen.

Alle Schulungen

4 Kurse

Kurse für LLM Sicherheit

LLM Security: Injections erkennen & abwehren
Logo LLM Security: Injections erkennen & abwehren

LLM Security: Injections erkennen & abwehren

Große Sprachmodelle transformieren Unternehmen, öffnen jedoch völlig neue Angriffsvektoren, die klassische Firewalls oft ignorieren. In diesem Training tauchen Sie tief in die Welt der LLM-Sicherheit ein. Wir..
1.490,00 € zzgl. MwSt.
Details
Dauer: 2 Tage
Level:
Advanced
Level 3: Advanced
Für fortgeschrittene Anwender. Du vertiefst deine Routine, lernst Probleme selbstständig zu lösen, arbeitest schon langsam im Thema und bereitest dich z.B. auf erste Zertifizierungen vor. Typischerweise finden sich hier Kurse die das Wissen aus Grund- und Aufbaukursen erfordern.
Nächster Termin: 09.04.2026 & 2 weitere

Kurse für KI Strategische Compliance & Ethik

Künstliche Intelligenz, Ethik & Compliance: Möglichkeiten & Grenzen der Integration von KI
Logo Künstliche Intelligenz, Ethik & Compliance: Möglichkeiten & Grenzen der Integration von KI

Künstliche Intelligenz, Ethik & Compliance: Möglichkeiten & Grenzen der Integration von KI

KI verändert heute Entscheidungsprozesse, Arbeitsweisen und ganze Geschäftsmodelle grundlegend – und damit kommen im Bereich Governance, Ethik und Compliance eine ganze Reihe an normativen Fragen auf: Nach..
1.390,00 € zzgl. MwSt.
Details
Dauer: 2 Tage
Level:
Aufbau
Level 2: Aufbau
Das Fundament für das Thema. Du bringst Basis-Know-how mit und lernst hier das Handwerk und die Werkzeuge für die tägliche Arbeit. Hier finden sich typischerweise Aufbaukurse, die z.B. das Wissen aus einem Grundlagenkurs erfordern.
Nächster Termin: 19.03.2026 & 3 weitere

Kurse für KI Recht & Regulierung

EU AI Act - Schulung für Mitarbeitende im KI-Umfeld
Logo EU AI Act - Schulung für Mitarbeitende im KI-Umfeld

EU AI Act - Schulung für Mitarbeitende im KI-Umfeld

Der EU AI Act verändert den Einsatz von Künstlicher Intelligenz grundlegend. In dieser praxisnahen Schulung erfahren Sie, was die neue Verordnung konkret für Ihre Rolle im Unternehmen bedeutet – und wie Sie KI..
549,00 € zzgl. MwSt.
Details
Dauer: 1 Tag
Level:
Aufbau
Level 2: Aufbau
Das Fundament für das Thema. Du bringst Basis-Know-how mit und lernst hier das Handwerk und die Werkzeuge für die tägliche Arbeit. Hier finden sich typischerweise Aufbaukurse, die z.B. das Wissen aus einem Grundlagenkurs erfordern.
Nächster Termin: 09.03.2026 & 5 weitere

Kurse für KI Datenschutz & Datensicherheit

KI Chatbots und Datenschutz
Logo KI Chatbots und Datenschutz

KI Chatbots und Datenschutz

In der heutigen digitalisierten Welt spielen Chatbots und künstliche Intelligenz (KI) eine immer größere Rolle. Das Seminar "Chatbots und Datenschutz" beleuchtet sowohl die Chancen als auch die Risiken des..
790,00 € zzgl. MwSt.
Details
Dauer: 1 Tag
Level:
Aufbau
Level 2: Aufbau
Das Fundament für das Thema. Du bringst Basis-Know-how mit und lernst hier das Handwerk und die Werkzeuge für die tägliche Arbeit. Hier finden sich typischerweise Aufbaukurse, die z.B. das Wissen aus einem Grundlagenkurs erfordern.
Nächster Termin: 27.03.2026 & 2 weitere
Garantie

KI Sicherheit umfasst mehr als „sichere Prompts“. Sobald LLMs, RAG-Systeme oder KI-Agenten produktiv gehen, entstehen neue Angriffsflachen: Prompt Injection und Jailbreaks, Datenabfluss uber Retrieval, unsichere Tool-Aufrufe, Model Theft, Supply-Chain-Risiken in Modellen und Abhangigkeiten sowie Manipulation von Trainings- und Feedbackdaten (Data Poisoning).

In diesen Kursen lernen Sie, KI-Anwendungen wie klassische Systeme zu behandeln: Bedrohungsmodellierung, Security-by-Design, sichere Architektur fur RAG und Agenten, Härtung von Schnittstellen, Secrets-Handling, Logging und Monitoring. Sie uben praxisnah Red-Teaming fur LLMs, entwickeln Testkataloge (z.B. fur Prompt Injection, Sensitive Data Exposure, Hallucination-Risiken) und definieren klare Schutzmaßnahmen: Input/Output-Filter, Policy-Enforcement, Sandboxen fur Tools, Least Privilege, Rate Limits und sichere Deployment-Patterns.

Ein weiterer Schwerpunkt ist Governance und Compliance: Risikoanalysen, Dokumentation, Verantwortlichkeiten, Lieferantenbewertung und der Aufbau eines wiederholbaren KI-Sicherheitsprozesses, der mit DevSecOps und bestehenden ISMS-Strukturen zusammenarbeitet.

Fragen und Antworten zu KI Sicherheit

Welche Angriffe deckt KI Sicherheit konkret ab?
Typische Szenarien sind Prompt Injection und Jailbreaks, Datenabfluss uber RAG, unautorisierte Tool- oder API-Aufrufe durch Agenten, Model Theft, Supply-Chain-Risiken sowie Data Poisoning in Trainings- oder Feedbackdaten.
Fur wen sind die Kurse geeignet?
Fur Security Engineers, DevOps/DevSecOps, Software-Architekten, ML/AI Engineers, Produktverantwortliche und GRC/Compliance. Vorkenntnisse in Web- und API-Sicherheit helfen, sind aber je nach Kurs nicht zwingend.
Was sind schnelle, wirksame Schutzmaßnahmen fur LLM-Apps?
Least Privilege fur Tools und Datenquellen, strikte Zugriffskontrollen im Retrieval, Input/Output-Validierung, Policy-Enforcement (Guardrails), Secrets-Management, Rate Limits, isolierte Ausfuhrung von Tool-Calls sowie ein wiederholbarer Testprozess mit Red-Teaming.
Wie testet man KI-Systeme sinnvoll, wenn Ausgaben variieren?
Mit testbaren Sicherheitszielen (z.B. keine Preisgabe sensibler Daten), Angriffskatalogen, deterministischen Test-Setups (Seeds/Constraints), automatisierten Regressionstests, sowie menschlichem Review fur kritische Use Cases. Wichtig ist ein kontinuierlicher Testzyklus, nicht ein einmaliger Audit.

Weitere häufig gestellte Fragen und Antworten findest du in den FAQs .

Wer KI in Produkte, Prozesse oder Kundenkontakt integriert, braucht KI Sicherheit als festen Bestandteil von Architektur, Betrieb und Governance. LLMs, RAG (Retrieval-Augmented Generation) und KI-Agenten erweitern die Angriffsoberflache: Prompts werden zu Eingaben mit Sicherheitsrelevanz, Retrieval verbindet Modelle mit internen Datenquellen, und Agenten fuhren Aktionen uber Tools und APIs aus. Genau hier entstehen reale Risiken wie Prompt Injection, Jailbreaks, Datenabfluss uber Kontextfenster, unautorisierte Tool-Aufrufe, Model Theft oder Manipulation durch Data Poisoning.

Eine Weiterbildung in KI Sicherheit vermittelt Methoden, um diese Risiken nicht nur zu beschreiben, sondern nachweisbar zu beherrschen. Dazu gehoren Threat Modeling fur KI-Workloads, sichere RAG-Architekturen (z.B. Zugriffskontrollen, Dokumentenklassifizierung, Kontextbegrenzung), Guardrails und Policy-Enforcement, sowie Red-Teaming und Security Testing speziell fur LLM-Ausgaben. Praktisch relevant sind auch Monitoring und Incident Response: Welche Signale deuten auf Prompt-Angriffe hin, wie werden Logs datenschutzkonform genutzt, und wie lassen sich Schutzmaßnahmen im laufenden Betrieb iterativ verbessern?

Zusatzlich spielt Governance eine zentrale Rolle: Risiko- und Impact-Assessments, Nachvollziehbarkeit von Entscheidungen, Lieferanten- und Modellbewertung, sichere Nutzung von Open-Source-Komponenten sowie die Einbettung in DevSecOps und ISMS. Diese Kurs-Kategorie richtet sich an Security-Teams, Entwickler, Architekten, Produktverantwortliche und Compliance-Rollen, die KI-Systeme produktiv betreiben wollen, ohne Blindflug bei Sicherheit und Datenabfluss. Ziel ist eine belastbare, prufbare Sicherheitsstrategie fur KI, die Angriffe antizipiert und den Betrieb stabil halt.