Shadow IT ist ein bekanntes Problem. Shadow AI ist seine gefährlichere Evolution. Wenn Mitarbeiter KI-Tools nutzen, von denen die IT-Abteilung nichts weiß, entstehen Datenabflüsse, Compliance-Verstöße und Sicherheitslücken, die mit herkömmlichen Mitteln nicht erkennbar sind. Die Zahlen für 2025 zeigen, dass dieses Problem längst die Phase der theoretischen Warnung hinter sich gelassen hat.
Die Zahlen: 20 Prozent Breach-Rate, 670.000 Dollar Mehrkosten
20 Prozent der Organisationen erlitten 2025 einen Sicherheitsvorfall, der direkt auf nicht autorisierte KI-Nutzung zurückzuführen war. Die durchschnittlichen Mehrkosten gegenüber einem vergleichbaren traditionellen Incident: 670.000 US-Dollar. Diese Zahl enthält Forensik, Benachrichtigung, regulatorische Strafen und Reputationsschäden.
Die Erkennungszeit macht die Sache schlimmer: 247 Tage vergingen im Durchschnitt, bis ein Shadow-AI-Breach entdeckt wurde – fast acht Monate, in denen Daten unkontrolliert abfließen konnten.
Die betroffenen Datentypen sind sensibel: 65 Prozent der Shadow-AI-Breaches betrafen Customer PII – also personenbezogene Kundendaten. 40 Prozent betrafen Intellectual Property, also proprietäre Geschäftsinformationen, Quellcode oder strategische Dokumente.
Samsung als Warnung: Quellcode im LLM
Der Samsung-Vorfall 2025 steht exemplarisch für das Problem. Ingenieure luden proprietären Quellcode in ein externes LLM hoch, um Debugging-Hilfe zu erhalten. Der Code wurde damit Teil des Trainingskorpus des Anbieters. Samsung reagierte mit einem internen Verbot externer KI-Tools – ein Schritt, den die meisten Unternehmen erst nach einem Vorfall erwägen.
Samsung ist kein Einzelfall. Die Cloud Security Alliance berichtet, dass ein Drittel aller Organisationen 2025 einen Cloud-Breach hatte, der KI-Workloads involvierte. Oft handelte es sich um Mitarbeiter, die proprietäre Daten in Cloud-basierte KI-Dienste hochluden – ohne böse Absicht, aber mit gravierenden Folgen.
DSGVO-Konsequenzen: Wenn Daten in US-LLMs fließen
Für deutsche und europäische Unternehmen hat Shadow AI eine spezifische regulatorische Dimension. Wenn personenbezogene Daten in LLM-Dienste fließen, die auf US-Servern laufen, entsteht ein Datentransfer in ein Drittland – mit allen DSGVO-Anforderungen, die damit verbunden sind.
In der Praxis bedeutet das: Ohne Auftragsverarbeitungsvertrag, ohne Datenschutz-Folgenabschätzung und ohne dokumentierte Rechtsgrundlage liegt ein Verstoß vor. Dass der Mitarbeiter den Transfer nicht beabsichtigt hat, ist irrelevant – die Verantwortung liegt beim Unternehmen.
Parallel verschärft der EU AI Act die Anforderungen: Unternehmen müssen dokumentieren, welche KI-Systeme sie einsetzen, wie sie funktionieren und welche Risiken sie bergen. Shadow AI macht diese Dokumentation unmöglich – man kann nicht dokumentieren, was man nicht kennt.
Doppelte Compliance-Pflicht: NIS2 und EU AI Act
Die Kombination aus NIS2 und EU AI Act erzeugt für deutsche Unternehmen eine doppelte Compliance-Belastung. NIS2 verlangt Cybersicherheitsmaßnahmen und Meldepflichten. Der EU AI Act verlangt KI-Transparenz und Risikomanagement. Shadow AI unterminiert beides gleichzeitig.
Ein Unternehmen, das von einer NIS2-Prüfung betroffen ist und gleichzeitig unkontrollierte KI-Nutzung in seinen Abteilungen hat, riskiert Sanktionen auf beiden Ebenen. Die theoretische Obergrenze: 10 Millionen Euro (NIS2) plus bis zu 35 Millionen Euro (EU AI Act für High-Risk-Systeme).
Gegenmaßnahmen: Vom Verbot zur kontrollierten Nutzung
Reine Verbote funktionieren nicht. Unternehmen, die KI-Nutzung pauschal untersagen, treiben sie in den Untergrund. Effektiver sind kontrollierte Governance-Frameworks:
- AI Acceptable Use Policy: Klare Regeln, welche Daten in welche KI-Tools eingegeben werden dürfen. Nicht nur technisch, sondern auch verständlich formuliert.
- Approved Tool List: Eine kuratierte Liste genehmigter KI-Werkzeuge mit abgeschlossenen Auftragsverarbeitungsverträgen und Datenschutz-Folgenabschätzungen.
- LLM Gateway / Proxy: Ein zentraler Zugangspunkt, über den alle KI-Interaktionen laufen. Ermöglicht Logging, Filterung und DLP-Integration.
- Data Loss Prevention (DLP): Bestehende DLP-Systeme müssen auf KI-spezifische Exfiltrationspfade erweitert werden – nicht nur E-Mail und USB, sondern auch API-Calls an LLM-Dienste.
- Schulungen: Mitarbeiter müssen verstehen, warum das Hochladen von Kundendaten in ChatGPT ein Datenschutzvorstoß ist – und welche genehmigten Alternativen es gibt.
- Shadow AI Discovery Tools: Spezialisierte Lösungen, die den Netzwerkverkehr auf Verbindungen zu bekannten KI-Diensten analysieren und nicht autorisierte Nutzung identifizieren.
2026: Das Jahr der KI-Governance
Shadow AI ist kein technisches Problem allein. Es ist ein organisatorisches, kulturelles und regulatorisches Problem, das technische Lösungen erfordert. Unternehmen, die 2026 keine funktionierende KI-Governance etabliert haben, werden mit Breaches, Strafen und Vertrauensverlusten konfrontiert sein. Die AI Security Landscape 2026 zeigt: Die Tools und Frameworks existieren. Was fehlt, ist die Umsetzung.
Quellen
- IBM – Cost of a Data Breach Report 2025 (Shadow AI Supplement)
- Cloud Security Alliance – State of AI Security 2025
- Samsung – Internal AI Usage Incident, Reuters-Bericht 2025
- Gartner – Shadow AI Risk Assessment Framework, 2025
- Europäische Kommission – EU AI Act Implementation Guidelines