Künstliche Intelligenz ist gekommen, um zu bleiben – an die Zeit vor den 2010er Jahren kehren wir nicht mehr zurück. Steigerungen bei Produktivität, Innovation und Wirtschaftskraft verändern alles grundlegend.
Mit diesen herausragenden Vorteilen gehen für Unternehmen, die KI einsetzen, auch ernste Risiken einher. Besonders dringend ist Shadow AI – der zunehmende Einsatz von KI-Tools durch Mitarbeitende, ohne dass IT-Leitungen davon wissen oder dieser zustimmen. Diese Entwicklung stellt eine wachsende Bedrohung für Sicherheit und Compliance dar, obwohl sie noch relativ neu ist und sich weiterhin schnell verändert.
Shadow AI entwickelt sich rasant aus Shadow IT, einer langjährigen Herausforderung, bei der Mitarbeiter nicht genehmigte Software, Cloud-Anbieter oder Systeme im Unternehmen einsetzen. Während Shadow IT bereits Governance und Sicherheit belastet, bringt Shadow AI eine zusätzliche, gefährliche Komplexitätsebene mit sich.
Einige Beispiele für Shadow AI:
Diese Beispiele sind erst der Anfang. Tagtäglich entstehen zahlreiche weitere Shadow-AI-Szenarien in verschiedenen Branchen. Das Ausmaß ist so enorm, dass Gartner® prognostiziert: „Bis 2027 werden 75 % der Mitarbeitenden Technologien erwerben, anpassen oder entwickeln, ohne dass die IT davon weiß – im Vergleich zu 41 % im Jahr 2022.“ Daher werden traditionelle, stark zentralisierte Cybersicherheitsmodelle scheitern. CISOs müssen Cybersicherheit neu gestalten – als schlanke, zentrale Funktion, die ein breites, föderiertes Netz aus Experten und Fusionsteams im gesamten Unternehmen unterstützt. So bringen wir Cybersicherheit direkt an den Rand des Unternehmens, näher an die Stellen, an denen Technologie- und Risikoentscheidungen getroffen und umgesetzt werden. 1
Die genauen finanziellen Verluste durch Shadow AI werden noch ermittelt, das Schadenspotenzial ist jedoch eindeutig und steigt weiter. Wenn Sie jetzt nicht handeln, setzen Sie Ihr Unternehmen ernsthaften Vorfällen, regulatorischen Risiken und einem Verlust an Kundentreue aus.
Eine der besorgniserregendsten Schwachstellen ist Prompt Injection – ein Angriff, bei dem ein böswilliger Nutzer die Eingabe der KI so manipuliert, dass Beschränkungen umgangen, vertrauliche Daten offengelegt oder unerwünschte Aktionen ausgeführt werden. KI-Modelle vertrauen Eingaben standardmäßig, weshalb sie für solche Angriffe anfällig sind. Gelungene Prompt Injections bringen KI dazu, interne Daten preiszugeben, automatisierte Abläufe zu stören oder Entscheidungsprozesse zu beeinträchtigen.
Ein weiteres großes Risiko besteht in der Datenexfiltration, insbesondere von vertraulichen personenbezogenen Daten (PII), geschützten Gesundheitsinformationen (PHI), Bank- und Finanzunterlagen, Quellcode und geistigem Eigentum, Anmeldedaten und Zugriffsschlüsseln sowie Kundeninformationen.
Das Problem verschärft sich durch das Risiko der Nichteinhaltung von Vorschriften. Der unberechtigte Einsatz von KI verstößt leicht gegen Standards wie DSGVO, HIPAA, PCI DSS und den Sarbanes-Oxley Act – womit Sie Strafen und Reputationsverlust riskieren.
Um diesen Risiken zu begegnen, haben einige Organisationen ihren Mitarbeitern die Nutzung nicht freigegebener generativer KI-Tools untersagt. Samsung war 2023 eines der ersten Unternehmen, das die Verwendung von ChatGPT und ähnlichen KI-basierten Chatbots verbot, um das Risiko des Lecks vertraulicher interner Informationen zu vermeiden. Mehrere Banken und andere Unternehmen folgten mit vergleichbaren Einschränkungen oder Warnungen.
Branchenexperten raten Ihnen in der Regel davon ab, pauschale Verbote auszusprechen.
Obwohl echte Risiken bestehen, empfehlen Branchenanalysten vorbeugende Maßnahmen und Governance-Strukturen statt bedingungsloser Verbote.
Verbote wirken oft kontraproduktiv. Sie lassen sich schwer durchsetzen, hemmen Innovation und Motivation und treiben die Nutzung von KI häufig noch weiter in den Untergrund – so wird es noch schwieriger, sie zu erkennen und zu kontrollieren.
Wie ein IT-Leiter in einer Diskussion der Gartner Peer Community zum Verbot von KI-Tools sagte: „Verbote funktionieren einfach nicht. Selbst ohne Richtlinien behindert diese Maßnahme die Innovation und sendet Mitarbeitern wie Außenstehenden eine falsche Botschaft über unser Unternehmen.“
Hier sind einige konkrete Governance-Maßnahmen, die Sie sofort umsetzen können:
Bietet Technologie eine Lösung, die mitwächst? Auf jeden Fall.
F5 kündigt heute die Erkennung und Verhinderung von Datenlecks zur Sicherung von KI-Workloads an und wird in den kommenden Monaten kraftvolle neue Funktionen einführen, die Ihnen helfen, das Risiko von Schatten-KI umfassend zu beseitigen – besonders bei unberechtigtem Zugriff auf KI-Tools über verschlüsselte Kanäle, dem Standard für die meisten KI-APIs und SaaS-Plattformen.
Verpassen Sie keine unserer zukünftigen Ankündigungen. Inzwischen finden Sie alle aktuellen F5 AI-Neuigkeiten auf unserer Accelerate AI-Webseite.
GARTNER ist eine eingetragene Marke und Dienstleistungsmarke von Gartner, Inc., und/oder ihren Tochtergesellschaften in den USA und international und wird hier mit Genehmigung verwendet. Alle Rechte vorbehalten.
1Gartner, Maverick Research: CISOs müssen ihre Rolle neu definieren, sonst werden sie überflüssig, 19. Juni 2025