Innovation ist eine Sache. Governance eine andere. Eine besorgniserregende Statistikmischung aus Umfragen zeigt deutlich, dass Unternehmen generative KI mit voller Geschwindigkeit einsetzen – trotz Governance-Lücken, die eigentlich zum Innehalten mahnen sollten.
Laut der AI Agent Survey von PWC aus Mai 2025 setzen 79 % der Unternehmen KI ein, während nur 2 % agentenbasierte KI gar nicht in Betracht ziehen. Egal, ob diese Agenten tatsächlich eigene Entscheidungen treffen – also Arbeitspläne erstellen, mehrstufige Aktionen ausführen, Ergebnisse bewerten und sich anpassen – oder ob es sich um Chatbots handelt, die einzelne Anfragen an ausgewählte große Sprachmodelle (LLM) weiterleiten: Die Verbreitung ist sehr hoch, und nahezu alle Unternehmen planen, ihre KI-Ausgaben im kommenden Jahr zu steigern.
Im Vergleich zu unserer eigener Forschung—die einen AI Readiness Index verwendet, um die operative Fähigkeit zur erfolgreichen Skalierung, Sicherung und Aufrechterhaltung von KI-Systemen zu quantifizieren—sind nur 2 % der Organisationen bestens darauf vorbereitet, die Herausforderungen bei Design, Bereitstellung und Betrieb KI-gestützter Systeme zu meistern.
IT- und Sicherheitsteams haben laut EY-Forschung keine Wahl: Die Mehrheit der Führungskräfte ist überzeugt, dass Sie noch in diesem Jahr agentenbasierte KI einführen müssen, um bis nächstem Jahr Ihre Wettbewerber zu überholen. Wenn Sie als Organisation bewusst genug Tempo herausnehmen, um Sicherheits- und Governance-Lücken gezielt zu schließen, sind Sie 2026 weiter und Ihr Unternehmen weniger angreifbar als diejenigen, die solche Lücken ignorieren. Die drei folgenden Praktiken bilden ein bewährtes Trio, das Ihnen hilft, den Einstieg in generative und agentenbasierte KI sicherer zu gestalten:
Neues muss geschützt werden, und jede Form generativer KI basiert auf einem oder mehreren LLMs. Darauf zu vertrauen, dass Modellhersteller Genauigkeit stetig verbessern, Halluzinationen verringern und Jailbreaking verhindern, reicht nicht aus. Sie müssen in Prompt- und Modellservices investieren, die unerwünschte Verhaltensweisen eigenständig erkennen und stoppen. Da jedes Unternehmen mit einem LLM tatsächlich mehrere nutzt, ist das Verschleiern der Anwendungen vor dem Inferencing-API-Aufruf unverzichtbar, um Verfügbarkeit, Routing, Skalierung und Kostenkontrolle zu gewährleisten.
Die Unternehmensdaten, die Modellen zugänglich sind, können für Ihr Geschäft neu sein – müssen es aber nicht. Wichtig ist, dass Sie sie schützen – und es geht nicht nur darum, Daten an ihrem Speicherort zu sichern oder sie beim Übertragen im Netzwerk zu verschlüsseln. Daten in Ihrer privaten Unternehmensumgebung müssen Sie ebenfalls erkennen und schützen – egal, in welcher Form und selbst wenn sie mit einem genehmigten Drittanbieterdienst oder von Dritten verwendet werden. Verstehen Sie mich richtig. Die Herkunft der Daten ist dabei nicht entscheidend. Entscheidend ist vielmehr die Kontrolle beim Austritt.
Agenten verändern das Spiel, weil sie LLMs nutzen, um selbst zu bestimmen, welche Schritte nötig sind, um ein definiertes Ziel zu erreichen. Dazu benötigen sie die Erlaubnis, Aktionen auszuführen, auf Ressourcen zuzugreifen sowie Informationen zu erstellen, zu ändern und zu löschen. Sie brauchen eine Überwachung und Steuerung von außen, aber so nah genug, dass man sie wirkungsvoll beobachten und beurteilen kann. Zwei Hauptansätze zeichnen sich ab, die wir in den kommenden Monaten aufmerksam verfolgen sollten: Guardrail-Frameworks (wie MCP-Universe) und LLM-as-a-Judge-Frameworks (wie Microsoft LLM-as-a-Judge Framework).
Das Erstgenannte definiert die eindeutige Wahrheit mithilfe sehr spezifischer aufgabenbezogener Operationen, indem wir die Ergebnisse der vom Agenten initiierten Aktionen mit separaten, von eigens gesteuerter Software vorab durchgeführten Aktionen vergleichen. Seine Stärke liegt im kontinuierlich wachsenden Fundus an Beispielcode, mit dem Sie verschiedene Fakten wie Wetter- oder historische Daten anhand sorgfältig ausgewählter, verlässlicher Quellen prüfen. Wir sammeln die Informationen und vergleichen die Ergebnisse dann als Tatsachengrundlage mit denen, die ein eingesetzter Agent liefert.
Letztere nutzen ein anderes LLM, teils sogar mehrere, um das Verhalten eines eingesetzten Agenten zu analysieren und die Qualität sowie Zweckmäßigkeit seiner Ergebnisse anhand der Unternehmensvorgaben zu beurteilen. Beide Ansätze zeigen Potenzial, entwickeln sich rasch weiter und bleiben in Ihrer Geschäftssteuerung. Noch besser: Sie können bei Bedarf durch eine Einbindung menschlicher Kontrollen ergänzt werden.
Dieses Dreigespann aus Kontrollen für Modelle, Daten und Agenten schließt die Sicherheits- und Governance-Lücken, die Ihr Unternehmen sonst den neuen Risiken durch generative KI und agentenbasierte Systeme aussetzen würden.
Wenn Sie mehr über den Einsatz dieser Kontrolltypen als eigenständige Infrastrukturdienste erfahren möchten, lesen Sie F5s neueste Ankündigung zu CalypsoAI, dem Vorreiter für Verteidigungs-, Red-Team- und Governance-Lösungen für KI-Apps und -Agenten.