Neue Technologie weckt schnell Begeisterung. Sie erinnern sich sicher an das erste Mal, als Sie ein großes Sprachmodell (LLM) nutzten, den ersten Einsatz eines Webbrowsers oder an die erstaunliche Vorstellung, dass Ihre Daten in einer „Cloud“ gespeichert sind. Doch mit jeder Innovation steht ein engagiertes Sicherheitsteam vor der Herausforderung, Wege zu finden, wie Sie all das sicher verwenden können. Es ist leicht, sich von Schlagzeilen und den vielen Möglichkeiten der KI mitreißen zu lassen. Als wir aber definierten, wie F5 die KI-Sicherheit unterstützen will, hielten wir inne, um zu fragen: Wie steht die Sicherheits-Community zu KI?
Weil wir bei F5 unsere Kunden leidenschaftlich betreuen, haben wir alle KI-bezogenen Kommentare des vergangenen Jahres (Juli 2024 – Juni 2025) von den aktivsten Nutzern in der größten Community der Sicherheitsexperten im Internet, Reddit’s r/cybersecurity, analysiert. Wir haben jeden Kommentar und Nutzer nach Stimmung eingeordnet und die geäußerten oder zugrundeliegenden Probleme identifiziert.
48 % der Experten sehen zuversichtlich in die Zukunft und nutzen es bereits in ihrem Stack, während die übrigen skeptisch oder besorgt sind, was kommt.
Die Hälfte der SecOps-Experten zeigt sich optimistisch gegenüber KI. Sie integrieren KI-gestützte Tools in ihre Systeme, automatisieren repetitive Aufgaben und lassen KI-Assistenten Warnmeldungen priorisieren.
Die andere Hälfte der Kommentare teilte sich zwischen der Sorge um die Herausforderung, KI-Systeme sicher zu machen, und der Skepsis, dass KI sich erheblich weiterentwickeln wird.
Datenschutz steht im Fokus der Kommentare von Sicherheitsexperten im Reddit-Forum r/cybersecurity, gefolgt von Überwachbarkeit und Anomalieerkennung sowie KI-gestützten Angriffen.
Der Konflikt zwischen den Datenanforderungen der KI und den Grundsätzen der Cybersicherheit rückt die Datensicherheit in den Mittelpunkt der Diskussion. Im Jahr 2025 stand sie ganz oben auf der Agenda von Sicherheitsexperten – und wird wichtiger, je schneller Unternehmen KI übernehmen.
Das drängendste Problem in diesem Bereich ist Schatten-KI, also unautorisierte Nutzerinteraktionen mit KI-Systemen. Egal, wie früh oder fortgeschritten Ihre Organisation KI einsetzt – das Problem bleibt bestehen, unabhängig vom Reifegrad der KI.
Datensicherheit steht oft im Mittelpunkt, aber Beobachtbarkeit und Anomalieerkennung sind die nächsten entscheidenden KI-Themen im SecOps. Während Anbieter die Fähigkeiten von KI in Sicherheitsabläufen anpreisen, betonen Praktiker den Bedarf an Ausgewogenheit: „KI-Sicherheitsagenten können nur begrenzt leisten, und ein Mensch bleibt immer involviert.“ Ein Analyst berichtete, wie er KI zur Automatisierung der L1-Triage von EDR-Warnmeldungen einsetzt, um die mittlere Erkennungs- und Reaktionszeit (MTTT) von 45 Minuten auf unter zwei zu senken, fügte aber hinzu: „Das gelang nur dank vieler Leitplanken, Leitplanken und nochmals Leitplanken.“ Die Botschaft ist klar: Schaffen Sie durchgehend Transparenz und Nachvollziehbarkeit in KI-Abläufen, automatisieren Sie repetitive Aufgaben und behalten Sie wichtige strategische Entscheidungen als Mensch bei.
Das ist keine theoretische Bedrohung, sondern ein Verstärker, der Opportunisten eine Basis absichert und gleichzeitig die Möglichkeiten für raffinierte Angreifer erheblich erweitert. In der Praxis zeigen sich diese Veränderungen auf zwei Arten: durch neue, gezielte KI-Angriffstechniken wie Prompt Injection oder Jailbreak-Attacken auf KI-Systeme und durch die böswillige Verbreitung von Social-Engineering-Angriffen wie Phishing und Deepfakes. Die Sorgen um Letztere nehmen zu, weil Modelle und Agenten sich mit immer mehr Werkzeugen und Daten vernetzen.
Weitere 12 % der beschriebenen Probleme nannten das Modellverhalten und die Ausgabegenauigkeit als Sicherheitsrisiko. Die größten Sorgen betrafen Halluzinationen, Genauigkeitslücken und schädliche Ergebnisse, vor allem aber die unberechtigte Erweiterung von Zugriffsrechten – wenn KI auf Daten zugreift oder Aufgaben ausführt, für die sie keine Berechtigung hat. Hier setzen SecOps auf praktische Leitplanken: eine Inhaltsmoderation abgestimmt auf Geschäftsrisiken, konsequente Richtlinien und klare Zugriffsberechtigungen für Modelle und Agenten.
Sicherheitsteams erwarten von Anbietern zunehmend höhere Standards – mal zwischen den Zeilen, mal ganz offen.
Setzen Sie Datenschutz an erste Stelle, passen Sie Sicherheitsmaßnahmen an neue Bedrohungen an, machen Sie Transparenz zu einem Grundpfeiler jeder Interaktion und entwickeln Sie verantwortlich mit Blick auf KI-Governance. Wir teilen weiterhin Erkenntnisse aus der Praxis, veröffentlichen anwendbare Richtlinien für Ihre Sicherheitsteams und setzen auf Offenheit, damit Sie verstehen, wie wir Risiken minimieren.
Wenn wir an den Reddit-Kommentar über sichere ODER effektive KI denken, freuen wir uns darauf, aus dem „oder“ ein „und“ zu machen.
Wir haben den Ruf gehört; das ist unsere Antwort.