KI sicher und
rechtskonform einsetzen
Der EU AI Act ist da. Die DSGVO gilt weiterhin. Und 30 bis 40% deiner Mitarbeiter nutzen KI-Tools bereits ohne offizielle Freigabe. Wer jetzt nicht handelt, riskiert Bußgelder, Datenlecks und Vertrauensverlust.
Wir helfen dir, KI rechtskonform einzuführen, klare Richtlinien zu erstellen und dein Team für den sicheren Umgang zu schulen. Praxisnah, verständlich, sofort umsetzbar.
Über 20.000 Unternehmen und Behörden vertrauen auf uns
KI-Compliance ist kein Kann,
sondern ein Muss.
Künstliche Intelligenz verbreitet sich schneller als die Regeln dafür. Während Unternehmen ChatGPT, Copilot und andere Tools einführen, hat die EU mit dem AI Act das weltweit erste umfassende KI-Gesetz verabschiedet. Es betrifft nicht nur Tech-Konzerne, sondern jedes Unternehmen, das KI einsetzt.
Gleichzeitig gilt die DSGVO unverändert. Personenbezogene Daten in KI-Tools einzugeben, ohne Rechtsgrundlage, ohne Auftragsverarbeitungsvertrag, ohne Wissen der Betroffenen - das war schon immer rechtswidrig. Durch den massenhaften Einsatz von KI-Tools wird das Risiko jetzt um ein Vielfaches größer.
Das Problem ist nicht die Technologie. Das Problem ist, dass die meisten Unternehmen keine klaren Regeln für den KI-Einsatz haben. Keine Richtlinie, keine Schulung, keine Übersicht darüber, wer welche Tools wie nutzt. Das ist nicht nur riskant, sondern ab 2026 auch ein Compliance-Verstoß.
Die gute Nachricht: KI-Compliance ist kein Mammutprojekt. Mit einer klaren Richtlinie, den richtigen Schulungen und einem pragmatischen Governance-Ansatz kannst du KI sicher nutzen und gleichzeitig alle Anforderungen erfüllen. Wir zeigen dir, wie.
Maximale Strafe bei Verstößen gegen die Verbote des EU AI Act. Oder alternativ 7% des weltweiten Jahresumsatzes.
Studien zeigen: Fast jeder dritte Büroangestellte nutzt KI-Tools ohne offizielle Genehmigung des Arbeitgebers.
Der EU AI Act verpflichtet Unternehmen, ausreichende KI-Kompetenz bei Mitarbeitenden sicherzustellen und nachzuweisen.
Zwei Drittel der KMU haben noch keine interne Richtlinie für den Umgang mit KI-Tools. (Bitkom, 2025)
EU AI Act: Drei Fristen,
die du kennen musst.
Der EU AI Act tritt stufenweise in Kraft. Jede Stufe bringt neue Pflichten. Hier ist der Fahrplan, und was er konkret für dein Unternehmen bedeutet.
Verbote gelten
- Social Scoring durch Behörden und Unternehmen verboten
- Manipulative KI-Systeme (Dark Patterns) untersagt
- Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum verboten
- Emotionserkennung am Arbeitsplatz und in Bildung unzulässig
Was bedeutet das für dich?
Prüfe jetzt, ob deine KI-Systeme unter die Verbotskategorien fallen. Die meisten KMU sind hier nicht betroffen, aber eine dokumentierte Prüfung ist empfehlenswert.
Transparenzpflichten
- KI-generierte Inhalte müssen gekennzeichnet werden
- Anbieter von General Purpose AI brauchen technische Dokumentation
- Urheberrechtsrichtlinien für Trainingsdaten erforderlich
- KI-Kompetenzpflicht nach Artikel 4 tritt in Kraft
Was bedeutet das für dich?
Ab jetzt muss dein Team wissen, wann KI-Inhalte als solche gekennzeichnet werden müssen. Newsletter, Social Media, Kundenanschreiben: Überall, wo KI-generierter Content nach außen geht.
Hochrisiko-Regeln
- Risikomanagementsysteme für Hochrisiko-KI Pflicht
- Qualitätsmanagement und menschliche Aufsicht nachweisen
- Automatisierte Entscheidungen dokumentieren und erklären
- Bußgelder bis 35 Mio. EUR oder 7% des Jahresumsatzes
Was bedeutet das für dich?
Wenn du KI im Personalwesen, bei der Kreditvergabe, im Bewerbermanagement oder in sicherheitskritischen Bereichen einsetzt, musst du bis dahin ein vollständiges Compliance-System aufgebaut haben.
Artikel 4 EU AI Act: KI-Kompetenz wird Pflicht.
Unternehmen müssen nachweisen, dass Mitarbeitende ausreichend geschult sind.
Die vier Risikoklassen
des EU AI Act.
Der EU AI Act stuft KI-Systeme nach ihrem Risikopotenzial ein. Je höher das Risiko, desto strenger die Anforderungen. Die meisten KI-Tools im Büroalltag fallen in die Kategorien "minimal" oder "begrenzt". Aber es gibt Ausnahmen, die du kennen musst.
Unakzeptables Risiko
VerbotenKI-Systeme, die grundlegende Rechte verletzen oder Menschen manipulieren, sind komplett verboten. Seit Februar 2025 aktiv.
Beispiele
- Social Scoring: Bewertung von Personen durch Behörden anhand ihres Sozialverhaltens
- Manipulative KI: Systeme, die unbewusst Verhalten beeinflussen (Dark Patterns)
- Biometrische Echtzeit-Überwachung im öffentlichen Raum
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
Was heißt das für dein Unternehmen?
Für die meisten KMU nicht relevant. Aber aufgepasst: Software, die Mitarbeiterstimmung per Kamera analysiert oder Bewerber automatisch per Gesichtserkennung filtert, kann darunter fallen.
Hohes Risiko
Streng reguliertKI-Systeme in sensiblen Bereichen unterliegen umfangreichen Dokumentations-, Qualitäts- und Aufsichtspflichten. Ab August 2026 vollständig anwendbar.
Beispiele
- KI-gestützte Bewerberselektion und Personalentscheidungen
- Kreditwürdigkeitsprüfung und automatisierte Versicherungseinstufung
- KI in der kritischen Infrastruktur (Energie, Wasser, Verkehr)
- Prüfungsbewertung und Zugang zu Bildungseinrichtungen
Was heißt das für dein Unternehmen?
Hier wird es relevant: Wenn du KI im HR-Bereich für Bewerbungsscreenings nutzt oder automatisierte Kreditentscheidungen triffst, brauchst du ein dokumentiertes Risikomanagementsystem mit menschlicher Aufsicht.
Begrenztes Risiko
TransparenzpflichtenKI-Systeme, die mit Menschen interagieren oder Inhalte erzeugen, müssen transparent gekennzeichnet werden. Ab August 2025 Pflicht.
Beispiele
- Chatbots im Kundenservice: Kunden müssen wissen, dass sie mit einer KI sprechen
- KI-generierte Texte, Bilder und Videos, die veröffentlicht werden
- Deepfakes und synthetische Medien jeder Art
- Automatisierte E-Mails und Antworten, die wie menschlich verfasst wirken
Was heißt das für dein Unternehmen?
Das betrifft fast jedes Unternehmen. Wenn dein Marketing KI-generierte Bilder verwendet, dein Support einen Chatbot einsetzt oder dein Newsletter KI-geschriebene Texte enthält: Ab August 2025 muss das gekennzeichnet sein.
Minimales Risiko
Kaum reguliertDie große Mehrheit der KI-Anwendungen im Büroalltag. Hier gelten keine besonderen Pflichten aus dem AI Act, aber die DSGVO gilt trotzdem.
Beispiele
- ChatGPT, Copilot und Gemini für interne Texterstellung und Recherche
- KI-gestützte Rechtschreibprüfung und Übersetzung
- Bilderkennung für Produktkategorisierung im E-Commerce
- KI-basierte Spam-Filter und E-Mail-Sortierung
Was heißt das für dein Unternehmen?
Auch wenn der AI Act hier wenig verlangt: Die DSGVO gilt uneingeschränkt. Keine personenbezogenen Daten ohne Rechtsgrundlage in KI-Tools eingeben. Und Artikel 4 (KI-Kompetenzpflicht) gilt für alle Risikoklassen.
DSGVO und KI:
Was erlaubt ist und was nicht.
Die DSGVO wurde nicht für KI geschrieben, gilt aber uneingeschränkt. Die wichtigsten Regeln im Überblick, sortiert nach dem, was du in der Praxis am häufigsten brauchst.
In der Regel erlaubt
- KI-Tools mit Auftragsverarbeitungsvertrag (AVV) für interne Texte nutzen
- Anonymisierte oder synthetische Daten in KI-Tools verarbeiten
- ChatGPT Enterprise / API mit deaktiviertem Training einsetzen
- KI für allgemeine Recherche ohne personenbezogene Daten
- Microsoft Copilot in der M365-Umgebung mit bestehender Lizenz
Grauzone - Einzelfallprüfung
- Kundendaten in KI-Tools mit AVV verarbeiten (Rechtsgrundlage prüfen!)
- KI-generierte Texte für verbindliche Kundenkommunikation
- Mitarbeiterdaten für KI-gestützte Personalplanung nutzen
- KI-Tools, die auf eigenen Servern laufen, aber Cloud-APIs nutzen
- Automatisierte Zusammenfassungen von Meetings mit personenbezogenen Inhalten
Klar unzulässig
- Personenbezogene Daten in ChatGPT Free eingeben (kein AVV, Training aktiv)
- Bewerbungsunterlagen ohne Einwilligung durch KI analysieren lassen
- Gesundheitsdaten von Mitarbeitern in Cloud-KI-Tools verarbeiten
- Automatisierte Entscheidungen ohne menschliche Überprüfung (Art. 22 DSGVO)
- KI-Profile über Mitarbeiter erstellen ohne Betriebsvereinbarung
„Die größte DSGVO-Gefahr bei KI ist nicht böse Absicht, sondern gutgläubige Nutzung. Ein Mitarbeiter, der Kundendaten in ChatGPT eingibt, um schneller zu arbeiten, verstößt gegen die DSGVO. Nicht aus Nachlässigkeit, sondern aus Unwissen.“
Aus über 200 Compliance-Beratungen bei cmt
Shadow AI: Das Risiko,
das du nicht siehst.
Deine Mitarbeiter nutzen KI-Tools. Die Frage ist nicht ob, sondern welche, und ob du davon weißt.
Fast jeder dritte Büroangestellte setzt KI-Tools ein, ohne dass die IT-Abteilung davon weiß.
Mehr als die Hälfte der Shadow-AI-Nutzer hat bereits sensible Unternehmensdaten in KI-Tools eingegeben.
Die meisten Mitarbeiter verwenden private ChatGPT-Konten. Daten landen auf Servern ohne AVV.
Ohne klare KI-Richtlinie hast du keine Handhabe gegen unkontrollierte Nutzung. Verbote allein funktionieren nicht.
Datenlecks durch gutgläubige Nutzung
Ein Vertriebsmitarbeiter gibt Kundenlisten in ChatGPT ein, um Angebote schneller zu erstellen. Ein HR-Mitarbeiter lässt Bewerbungen zusammenfassen. Beides ist ein DSGVO-Verstoß, wenn es ohne Auftragsverarbeitungsvertrag passiert. Und es passiert jeden Tag in tausenden Unternehmen.
Haftungsrisiko ohne Governance
Wer haftet, wenn eine KI-generierte Kundenberatung falsch ist? Wenn ein KI-Text Urheberrechte verletzt? Wenn automatisierte Entscheidungen diskriminieren? Ohne dokumentierte Prozesse und klare Verantwortlichkeiten haftet die Geschäftsführung persönlich.
Compliance-Verstöße durch Unwissen
Die meisten Mitarbeiter wissen nicht, dass ChatGPT Free eingegebene Daten zum Training verwendet. Sie wissen nicht, dass KI-generierte Inhalte gekennzeichnet werden müssen. Sie kennen die Risiken nicht, weil sie nie geschult wurden. Das ist kein Vorsatz, das ist ein Organisationsversagen.
Wettbewerbsnachteile durch Verbot statt Steuerung
Viele Unternehmen reagieren auf Shadow AI mit generellen KI-Verboten. Das Ergebnis: Mitarbeiter nutzen KI trotzdem, aber heimlich. Und der Wettbewerber, der KI kontrolliert einsetzt, zieht davon. Die Lösung ist nicht Verbieten, sondern Befähigen mit klaren Regeln.
Shadow AI lässt sich nicht durch Technik allein lösen. Die Firewall kann ChatGPT sperren, aber nicht die mobile Nutzung auf dem Privatgerät. Die einzige nachhaltige Lösung: Klare Regeln, freigegebene Tools und geschulte Mitarbeiter.
KI-Richtlinie erstellen:
In fünf Schritten zur Governance.
Du brauchst kein 100-seitiges Compliance-Dokument. Eine pragmatische KI-Richtlinie auf zwei bis drei Seiten reicht für den Start. Hier ist der Weg dorthin.
Bestandsaufnahme: Wer nutzt was?
Woche 1Bevor du Regeln aufstellst, musst du wissen, was passiert. Führe eine anonyme Umfrage durch: Welche KI-Tools werden genutzt? Wofür? Welche Daten fließen hinein? In den meisten Unternehmen ist das Ergebnis überraschend. Du wirst feststellen, dass deutlich mehr Tools im Einsatz sind, als die IT-Abteilung kennt. Das ist keine Anklage, das ist der Ausgangspunkt.
Shadow AI WorkshopRisikoklassifizierung durchführen
Woche 2Ordne die identifizierten KI-Anwendungen den vier Risikoklassen des EU AI Act zu. Die meisten Büro-Tools fallen in die Kategorien minimal oder begrenzt. Aber prüfe genau: Nutzt ihr KI im Personalwesen? Bei Kreditentscheidungen? In der Qualitätskontrolle? Diese Bereiche können schnell in die Hochrisiko-Kategorie fallen und brauchen besondere Maßnahmen.
Risikomanagement SeminarErlaubte Tools und Datenregeln definieren
Woche 2-3Erstelle eine Positivliste freigegebener KI-Tools mit Auftragsverarbeitungsvertrag. Definiere klar, welche Datenkategorien in welche Tools eingegeben werden dürfen. Faustregel: Keine personenbezogenen Daten ohne AVV, keine vertraulichen Geschäftsdaten in kostenlose Tools, keine Kundendaten ohne Rechtsgrundlage. Einfache Regeln, die jeder versteht.
Datenschutz-WorkshopVerantwortlichkeiten festlegen
Woche 3Bestimme eine verantwortliche Person für KI-Governance. Das muss keine Vollzeitstelle sein, aber es braucht jemanden, der die Richtlinie pflegt, Fragen beantwortet und Schulungen koordiniert. Binde den Datenschutzbeauftragten ein, den Betriebsrat (falls vorhanden) und die IT-Leitung. Dokumentiere Entscheidungen und Freigabeprozesse.
KI Governance SeminarSchulen, kommunizieren, iterieren
LaufendEine Richtlinie im Intranet, die niemand liest, bringt nichts. Schulung ist der Schlüssel: Jeder Mitarbeiter muss die Grundregeln kennen, verstehen und anwenden können. Plane regelmäßige Updates ein, denn sowohl die Technologie als auch die Rechtslage entwickeln sich weiter. Starte mit einer Pflichtschulung für alle KI-Nutzer und vertiefenden Workshops für Schlüsselpersonen.
Alle Compliance-SeminareKI-Compliance-Seminare
Die nächsten verfügbaren Termine aus unseren Compliance-, Datenschutz- und Governance-Schulungen. Alle Seminare auch als Inhouse-Training buchbar.
KI-Compliance- und Sicherheitsseminare
Von EU AI Act bis Shadow AI, von Datenschutz bis Governance. Hier findest du alle relevanten Schulungen für den rechtskonformen KI-Einsatz.
EU AI Act & Regulierung
Datenschutz & DSGVO
KI-Sicherheit & Cyber
- LLM Security: Injections erkennen & abwehren
- KI in der Cyber-Security-Analyse
- Prompt Injection: Angriffe verstehen & verhindern
- KI-Systeme härten: Security Best Practices
- Deepfake-Erkennung für Unternehmen
- Open-Source-LLMs sicher betreiben
- RAG Security: Datenabfluss verhindern
- Computer Use: Systeme sicher steuern
KI-Strategie & Management
KI-Tools rechtskonform nutzen
Fragen zu KI-Compliance und Datenschutz
Ab wann gilt der EU AI Act für mein Unternehmen?
Dürfen Mitarbeiter Kundendaten in ChatGPT eingeben?
Was passiert, wenn wir den EU AI Act nicht einhalten?
Brauchen wir einen KI-Beauftragten?
Was ist der Unterschied zwischen EU AI Act und DSGVO bei KI?
Wie erstellen wir eine KI-Richtlinie für unser Unternehmen?
Ist Open-Source-KI sicherer als kommerzielle Anbieter?
Wie schulen wir unsere Mitarbeiter in KI-Compliance?
Weitere häufig gestellte Fragen und Antworten findest du in den FAQs .
Weitere KI-Themen
Compliance ist die Grundlage. Diese Seiten vertiefen weitere Aspekte der KI-Einführung.
KI-Einstieg für Unternehmen
Von Null auf KI-kompetent. Grundlagen, erste Tools und der richtige Startpunkt für dein Team.
Mehr erfahrenKI-Strategie für den Mittelstand
Von der Idee zum Rollout. KI strategisch planen statt planlos ausprobieren.
Mehr erfahrenProzesse automatisieren mit KI
Routineaufgaben eliminieren mit KI-Agenten, n8n und intelligenter Automatisierung.
Mehr erfahrenProduktiver arbeiten mit KI
Microsoft Copilot, ChatGPT & Co. im Büroalltag. Sofort mehr Output, weniger Routinearbeit.
Mehr erfahrenKI im Marketing und Vertrieb
Leads generieren, Content erstellen, Kunden analysieren. Mit KI als Verstärker.
Mehr erfahrenAlle 490+ KI-Seminare
Das komplette KI-Schulungsportfolio. Vom Einstieg bis zur Experten-Zertifizierung.
Mehr erfahren
KI rechtskonform einsetzen?
Wir helfen dir dabei.
Ob EU AI Act, DSGVO oder interne KI-Richtlinie: Wir finden die passende Schulung für dein Team. Kostenlos, unverbindlich, am Telefon oder persönlich.
Kostenlose Beratung · Mo-Fr 8-17 Uhr · Antwort innerhalb von 24h