Große Sprachmodelle (LLMs) finden zunehmend Einzug in die Arbeitsabläufe des US-Verteidigungsministeriums (DoD). Wir führen Pilotprojekte in Umgebungen mit Impact Level 5 (IL5) und Impact Level 6 (IL6) durch. IL5 umfasst kontrollierte, nicht klassifizierte Informationen (CUI) und missionskritische Daten, während IL6 bis in den Bereich der geheim eingestuften Informationen reicht. Diese Einstufungen beziehen sich auf einige der sichersten Netzwerke des DoD.
Es ist verlockend anzunehmen, dass ein LLM in IL5 oder IL6 mit ausschließlich lesendem Datenzugriff automatisch sicher ist. Doch diese Annahme übersieht eine entscheidende Tatsache: Prompt-Injection-Angriffe zielen nicht auf Netzwerke oder Berechtigungen, sondern auf die Logik des Modells ab. Selbst ein „nur zum Lesen“ berechtigtes LLM in der sichersten Enklave lässt sich so manipulieren, dass es Informationen preisgibt oder Richtlinien missachtet. Dieser Blogbeitrag zeigt auf, warum IL5/6-Schutzmaßnahmen allein nicht ausreichen, wie Prompt-Injection funktioniert und welche Maßnahmen Teams der Cybersicherheit im DoD ergreifen sollten.
Die Akkreditierungen IL5 und IL6 garantieren starken Schutz für Netzwerk und Daten. Sie halten Angreifer effektiv fern und sichern Ihre geschäftskritischen Systeme ab. Bedrohungen auf Anwendungsebene umgehen jedoch den Perimeterschutz vollständig. Prompt-Injektionen nutzen aus, wie LLMs Anweisungen verarbeiten, unabhängig vom Netzwerkumfeld. Selbst ein IL6-Modell kann getäuscht werden, wenn es eine bösartige oder irreführende Eingabe erhält. Hierbei handelt es sich nicht um eine klassische Netzwerkeinbruch; vielmehr wird das KI-System selbst zur Angriffsfläche.
Prompt-Injektion ist einfach zu verstehen, aber in der Praxis zerstörerisch. Statt Code zu hacken, fügen Angreifer gezielt Texte ein, die die KI dazu bringen, ihre Regeln zu umgehen oder Informationen preiszugeben. LLMs erkennen nicht automatisch, ob Systemanweisungen sicher oder bösartig sind, wenn sie zusammen präsentiert werden.
Praktische Beispiele verdeutlichen, wie einfach das passieren kann:
Eine gängige Schutzmaßnahme besteht darin, LLMs nur lesenden Zugriff auf Daten zu gewähren. Das verringert das Risiko, dass LLMs Systeme verändern, aber es verhindert nicht, dass sie gelesene Informationen weitergeben. Eine Prompt-Injektion kann ein KI-Modell dazu bringen, vertrauliche Dokumente zusammenzufassen oder vollständig offenzulegen, obwohl das nicht vorgesehen ist.
Um Risiken zu minimieren, setzen viele DoD-Piloten auf Retrieval-Augmented Generation (RAG). Anstatt LLMs mit sensiblen Datensammlungen vorzutrainieren, holt RAG pro Abfrage nur relevante Ausschnitte aus sorgfältig ausgewählten Datenbanken. So verringern wir die Sicherheitsrisiken und erfüllen die Prinzipien der Datenminimierung. RAG bietet klare Vorteile: Es hält die meisten sensiblen Daten fern vom Langzeitgedächtnis des Modells, basiert Antworten auf geprüften Inhalten und ermöglicht vollständige Nachvollziehbarkeit. Gleichzeitig verhindert RAG jedoch keine Prompt-Injektionen.
Um LLMs zu sichern, müssen Sie grundsätzlich umdenken: Behandeln Sie die KI wie ein nicht vertrauenswürdiges System, bis das Gegenteil bewiesen ist. Zero Trust bei LLMs bedeutet, dass Sie jede Eingabe prüfen und beschränken, Ausgaben erst nach Prüfung und Freigabe vertrauen, die Sicht- und Aktionsmöglichkeiten des Modells einschränken und jede Interaktion gezielt auf Auffälligkeiten überwachen.
Bei vielen DoD-Anwendungsfällen kommunizieren Sie mit LLMs über APIs, die vom Anbieter bereitgestellt werden (zum Beispiel, indem Sie OpenAI- oder Azure OpenAI-Endpunkte aus einer Anwendung aufrufen). Diese API-Ebene bringt eigene Sicherheitsrisiken mit sich, wie Modellmissbrauch, überberechtigte Tokens, Injektionen über JSON-Nutzdaten und eine unüberschaubare Anzahl von Endpunkten. Mit den F5 Distributed Cloud Web App and API Protection (WAAP)-Lösungen erkennen wir KI-bezogene API-Endpunkte, erzwingen die Schemavalidierung, identifizieren Anomalien und blockieren Injektionsversuche in Echtzeit.
Heute verbindet sich der Großteil der LLM-Nutzung im DoD mit vom Anbieter gehosteten Modellen. Diese ausgehenden KI-Anfragen erzeugen einen blinden Fleck: verschlüsselten TLS-Verkehr, der sensible Eingaben und Antworten enthalten kann. F5 BIG-IP SSL Orchestrator entschlüsselt und steuert ausgehenden Datenverkehr, damit Sie ihn gemäß Richtlinien überprüfen können. BIG-IP SSL Orchestrator stellt sicher, dass Sie genau nachvollziehen, welche Daten an externe KI-Dienste gesendet werden, Regeln zur Verhinderung von Datenlecks anwenden und alle KI-Interaktionen protokollieren können.
Wenn das DoD interne LLMs auf IL5/IL6-Infrastruktur betreibt, sorgt F5 AI Gateway als Durchsetzungspunkt dafür, dass jede Eingabe und Antwort in klar definierten Grenzen bleibt – ein Zero-Trust-Checkpoint für KI-Verhalten. Es blockiert Echtzeit-Prompt-Injektionen, regelt rollenbasierten Datenzugriff und protokolliert jede Interaktion für die Einhaltung von Vorschriften.
Generative KI bringt enorme Vorteile für Ihre Mission, wenn Sie sie bewusst einsetzen. IL5/6 schützt nicht vor Prompt Injection, aber ein mehrschichtiger Zero-Trust-Ansatz schon. DoD-Teams sollten KI-Nutzung jetzt in Zero-Trust-Architekturen integrieren, diese genau überwachen und KI-Datenflüsse ebenso kontrollieren wie sensible menschliche Kommunikation.
Für weitere Informationen besuchen Sie die F5-Webseite zu Lösungen für den öffentlichen Sektor.