BLOG

Wie bewertet SecOps den Einsatz von KI? Teil 2: Datenschutz

Mark Toler Miniaturbild
Mark Toler
Veröffentlicht am 15. September 2025

KI weckt viele Emotionen. Manche sehen sie als den nächsten kurzlebigen Trend, der bald in der Riege der NFTs und 3D-Fernseher verschwindet. Andere bereiten sich mit Bunkerbau auf bösartige, selbstbewusste AGI-Herrscher vor. Trotz aller Übertreibungen bleibt eine Tatsache unumstößlich: KI steht in direktem Umgang mit einer Vielzahl von Daten.

Rund um KI herrscht viel Hype, der Experten entweder begeistert, beunruhigt oder skeptisch macht. Bei F5 interessieren wir uns dafür, wie Praktiker im Alltag dazu stehen. Um die tatsächlichen Herausforderungen und Sorgen zu verstehen, haben wir die Stimmungen in der größten Sicherheits-Community im Internet, Reddits r/cybersecurity, gründlich analysiert.  Shawn Wormkes Blogbeitrag Teil 1 zu dieser Studie, „Wie empfindet SecOps KI?“, fasst die wichtigsten Erkenntnisse zusammen. Alle Zitate stammen aus Kommentaren von Sicherheitsexperten zwischen Juli 2024 und Juni 2025. Jetzt schauen wir uns die größte KI-bezogene Sorge des Jahres genauer an: Datensicherheit.

Prozentuale Aufteilung der Schmerzpunkte

Datensicherheit wurde 2025 zur wichtigsten KI-bezogenen Herausforderung, und der DeepSeek-Angriff im Januar hat diese Entwicklung weiter beschleunigt.

Bedenken wegen vertraulicher Offenlegungen, Schatten-KI und Compliance

Viele denken an eine KI-Bedrohungslandschaft, in der Angreifer KI nutzen, um komplizierte Social-Engineering-Angriffe durchzuführen und intelligente Bot-Netzwerke loszulassen. Diese Bedrohungen sind real, doch Fachleute für Sicherheit skizzieren ein Bild, das deutlich naiver, ebenso schädlich und weitaus verbreiteter ist. Hier zeigen sich bei SecOps Bedenken wegen internem KI-Missbrauch 2,3-mal häufiger als gegenüber bösartigem Missbrauch.

Das bringt uns direkt zum Kern des ersten Problems: vertrauliche Informationen. Ein Praktiker fasste es treffend zusammen: „Mal ehrlich, jeder nutzt LLMs am Arbeitsplatz und gibt allerhand vertrauliche Daten in die Eingabeaufforderungen ein.“ Da die Modelle größere Kontextfenster bieten und mehr Dateitypen für Retrieval-Augmented Generation (RAG) zugänglich werden, wissen Mitarbeitende, dass der schnellste Weg zu einer fundierten Antwort darin besteht, dem LLM alle Informationen zu liefern, die es vielleicht braucht. Damit widerspricht das dem Prinzip der geringsten Rechte, das eine fundamentale Grundlage von Zero Trust darstellt. Kurz gesagt: „Zwischen Sicherheit und Funktionalität herrscht immer ein Spannungsverhältnis.“

Traditionelle Ansätze für die Durchsetzung von Richtlinien liefern keine Ergebnisse mehr

Der nächste logische Schritt für die meisten Unternehmen, um KI zu schützen, ist eine Richtlinie zur erlaubten Nutzung (AUP). Zwar gibt es viele verschiedene Ansätze, doch sind sich alle einig, dass herkömmliche Abschreckungs- und Beschränkungsverfahren nicht ausreichen.

Ein Nutzer beschreibt es so: Herkömmliche Werkzeuge wie Web Application Firewalls (WAFs) und DNS-Filter verzögern das Unvermeidliche nur.  „Wenn Sie sie blockieren, drängen Sie Ihre Daten im Grunde in diese kostenlosen Dienste. Das ständige Spiel mit der schwarzen Liste ist unvermeidlich.“ Das führt zu einer der meistdiskutierten Herausforderungen des vergangenen Jahres: Shadow AI. Täglich erscheinen neue Modelle, und deren Wrapper werden stündlich neu programmiert. Nutzer finden immer Wege, Richtlinien zu umgehen, die ihrer Meinung nach ihre wichtigsten Ziele behindern.

Die beiden Hauptprobleme Schatten-KI und Offenlegung sensibler Daten schaffen ein Worst-Case-Szenario für Ihre Sicherheitsteams: weitreichende Gefährdung ohne jegliche Übersicht. Nutzer greifen womöglich auf gängige LLMs zurück, um Lesezeit zu verkürzen, und laden dabei vertrauliche Dokumente hoch. Mit Schatten-KI-Lösungen kann Ihr SecOps-Team diese Aktivitäten dagegen überwachen und verschiedene Maßnahmen zur Risikominderung umsetzen. Wir empfehlen, den betreffenden Nutzer bei künftigen Interaktionen genauer im Blick zu behalten oder bis zur Verhaltensänderung den Zugriff auf kritische Ressourcen einzuschränken. Fehlt eine Schatten-KI-Lösung, verschieben traditionelle Sicherheitsmaßnahmen wie Firewalls und DNS-Blockaden die Nutzer nur in unübersichtliche Hüllen derselben Grundmodelle – wodurch Einblick in Art, Weise und Ort riskanter Handlungen verloren geht.

Compliance fasst alle Sicherheitsrisiken zusammen

Da Compliance-Anforderungen wie das EU-KI-Gesetz und die Datenschutz-Grundverordnung (DSGVO) auf branchenspezifische Vorschriften aufbauen, riskieren Sie ohne eine angemessene KI-Datenverwaltung empfindliche Geldstrafen, rechtliche Konsequenzen und einen Vertrauensverlust bei der Öffentlichkeit. 

Sicherheitsexperten haben viele Technologien erlebt, bei denen Begeisterung und der Drang nach Wettbewerbsfähigkeit Sicherheitsaspekte übertroffen haben. Cloud-Computing folgte einem ähnlichen Weg wie KI heute: schnelle Verbreitung und große Erwartungen an neue Chancen, gefolgt von weitverbreiteten Fehlkonfigurationen, zu viel Zugriff und dem Versagen des Modells gemeinsamer Verantwortung. Kommt Ihnen das bekannt vor? Der Hauptunterschied liegt darin, dass bei der Cloud deutlich weniger Parteien das Gesamtrisiko erhöhen konnten. Das neue Feld der KI-Sicherheit erweitert den Fokus von Cloud-Architekten und Ingenieuren als Hauptverantwortliche auf jeden mit Zugriff auf vertrauliche Daten – einschließlich der Modelle selbst. 

Fachleute verstehen die Aufgabe

Keine Technologie kam je ohne ein gewisses Risiko – und keine führte dazu, dass alle gemeinsam sagten: „Zu riskant, stoppen wir sofort.“ Fachleute für Sicherheit wissen, dass sie vor einer wichtigen und anspruchsvollen Aufgabe stehen.

Es ist eine Herausforderung, KI-Interaktionen mit Daten durch wirksame Schutzmechanismen und fortlaufende Beobachtung abzusichern, doch wenn Sie den aktuellen KI-Einführungskurs beibehalten, ist es unerlässlich.

F5 übernimmt bereits entscheidende Verantwortung, damit wir die Herausforderungen bewältigen. Wir werden auch weiterhin auf die Meinungen von SecOps setzen, um unsere Prioritäten zu bestimmen. Erfahren Sie hier mehr.