BLOG

Wie bewerten Sie als SecOps KI?

Shawn Wormke Miniaturbild
Shawn Wormke
Veröffentlicht am 11. September 2025

Neue Technologie weckt schnell Begeisterung. Sie erinnern sich sicher an das erste Mal, als Sie ein großes Sprachmodell (LLM) nutzten, den ersten Einsatz eines Webbrowsers oder an die erstaunliche Vorstellung, dass Ihre Daten in einer „Cloud“ gespeichert sind. Doch mit jeder Innovation steht ein engagiertes Sicherheitsteam vor der Herausforderung, Wege zu finden, wie Sie all das sicher verwenden können. Es ist leicht, sich von Schlagzeilen und den vielen Möglichkeiten der KI mitreißen zu lassen. Als wir aber definierten, wie F5 die KI-Sicherheit unterstützen will, hielten wir inne, um zu fragen: Wie steht die Sicherheits-Community zu KI?

Weil wir bei F5 unsere Kunden leidenschaftlich betreuen, haben wir alle KI-bezogenen Kommentare des vergangenen Jahres (Juli 2024 – Juni 2025) von den aktivsten Nutzern in der größten Community der Sicherheitsexperten im Internet, Reddit’s r/cybersecurity, analysiert. Wir haben jeden Kommentar und Nutzer nach Stimmung eingeordnet und die geäußerten oder zugrundeliegenden Probleme identifiziert.

SecOps ist beim Thema KI klar gespalten

Abbildung 1

48 % der Experten sehen zuversichtlich in die Zukunft und nutzen es bereits in ihrem Stack, während die übrigen skeptisch oder besorgt sind, was kommt.

Die Hälfte der SecOps-Experten zeigt sich optimistisch gegenüber KI. Sie integrieren KI-gestützte Tools in ihre Systeme, automatisieren repetitive Aufgaben und lassen KI-Assistenten Warnmeldungen priorisieren.

Die andere Hälfte der Kommentare teilte sich zwischen der Sorge um die Herausforderung, KI-Systeme sicher zu machen, und der Skepsis, dass KI sich erheblich weiterentwickeln wird. 

Abbildung 2

Datenschutz steht im Fokus der Kommentare von Sicherheitsexperten im Reddit-Forum r/cybersecurity, gefolgt von Überwachbarkeit und Anomalieerkennung sowie KI-gestützten Angriffen.

Shadow-AI und Datensicherheit

Der Konflikt zwischen den Datenanforderungen der KI und den Grundsätzen der Cybersicherheit rückt die Datensicherheit in den Mittelpunkt der Diskussion. Im Jahr 2025 stand sie ganz oben auf der Agenda von Sicherheitsexperten – und wird wichtiger, je schneller Unternehmen KI übernehmen.

Das drängendste Problem in diesem Bereich ist Schatten-KI, also unautorisierte Nutzerinteraktionen mit KI-Systemen. Egal, wie früh oder fortgeschritten Ihre Organisation KI einsetzt – das Problem bleibt bestehen, unabhängig vom Reifegrad der KI. 

Observability ist eine Grundvoraussetzung, kein bloßes Feature

Datensicherheit steht oft im Mittelpunkt, aber Beobachtbarkeit und Anomalieerkennung sind die nächsten entscheidenden KI-Themen im SecOps. Während Anbieter die Fähigkeiten von KI in Sicherheitsabläufen anpreisen, betonen Praktiker den Bedarf an Ausgewogenheit: „KI-Sicherheitsagenten können nur begrenzt leisten, und ein Mensch bleibt immer involviert.“ Ein Analyst berichtete, wie er KI zur Automatisierung der L1-Triage von EDR-Warnmeldungen einsetzt, um die mittlere Erkennungs- und Reaktionszeit (MTTT) von 45 Minuten auf unter zwei zu senken, fügte aber hinzu: „Das gelang nur dank vieler Leitplanken, Leitplanken und nochmals Leitplanken.“ Die Botschaft ist klar: Schaffen Sie durchgehend Transparenz und Nachvollziehbarkeit in KI-Abläufen, automatisieren Sie repetitive Aufgaben und behalten Sie wichtige strategische Entscheidungen als Mensch bei. 

Angreifer entwickeln immer neue Angriffsmethoden

Das ist keine theoretische Bedrohung, sondern ein Verstärker, der Opportunisten eine Basis absichert und gleichzeitig die Möglichkeiten für raffinierte Angreifer erheblich erweitert. In der Praxis zeigen sich diese Veränderungen auf zwei Arten: durch neue, gezielte KI-Angriffstechniken wie Prompt Injection oder Jailbreak-Attacken auf KI-Systeme und durch die böswillige Verbreitung von Social-Engineering-Angriffen wie Phishing und Deepfakes. Die Sorgen um Letztere nehmen zu, weil Modelle und Agenten sich mit immer mehr Werkzeugen und Daten vernetzen. 

Modellverhalten erfordert klare Leitplanken

Weitere 12 % der beschriebenen Probleme nannten das Modellverhalten und die Ausgabegenauigkeit als Sicherheitsrisiko. Die größten Sorgen betrafen Halluzinationen, Genauigkeitslücken und schädliche Ergebnisse, vor allem aber die unberechtigte Erweiterung von Zugriffsrechten – wenn KI auf Daten zugreift oder Aufgaben ausführt, für die sie keine Berechtigung hat. Hier setzen SecOps auf praktische Leitplanken: eine Inhaltsmoderation abgestimmt auf Geschäftsrisiken, konsequente Richtlinien und klare Zugriffsberechtigungen für Modelle und Agenten.

Was SecOps von KI-gestützter Sicherheit erwartet

Sicherheitsteams erwarten von Anbietern zunehmend höhere Standards – mal zwischen den Zeilen, mal ganz offen.

  • Datensicherheit hat oberste Priorität: Schutz vor Datenverlust (DLP) für KI-Richtliniendurchsetzung und Zugriffssteuerungen mit minimalen Rechten.
  • Kein „AI-Washing“: Zeigen Sie Sicherheit und Compliance mit klaren Fakten statt leeren Versprechen.
  • Machen Sie Observability prüfungsbereit und praxisnah: Ermöglichen Sie eine einfache und wirkungsvolle Integration in bestehende SIEM/SOAR-Workflows und sorgen Sie bei allen Abläufen für durchgehende Transparenz.
  • Flexibilität mit menschlicher Steuerung: Gestalten Sie Prioritäten nach Wirkung, nicht nur nach Tempo.
  • Widerstandsfähigkeit gegenüber Gegnern: Die KI Die Angriffsfläche verändert sich ständig und die Lösungen müssen sich mit der Entstehung neuer Bedrohungen weiterentwickeln.
  • Vereinfachen Sie das Richtlinienmanagement.  Wir helfen Ihnen, unternehmensweite Richtlinien und regulatorische Vorgaben ohne manuellen Aufwand umzusetzen.

Wir nehmen die Herausforderung an

Setzen Sie Datenschutz an erste Stelle, passen Sie Sicherheitsmaßnahmen an neue Bedrohungen an, machen Sie Transparenz zu einem Grundpfeiler jeder Interaktion und entwickeln Sie verantwortlich mit Blick auf KI-Governance. Wir teilen weiterhin Erkenntnisse aus der Praxis, veröffentlichen anwendbare Richtlinien für Ihre Sicherheitsteams und setzen auf Offenheit, damit Sie verstehen, wie wir Risiken minimieren.

Wenn wir an den Reddit-Kommentar über sichere ODER effektive KI denken, freuen wir uns darauf, aus dem „oder“ ein „und“ zu machen.

Wir haben den Ruf gehört; das ist unsere Antwort.