Les modèles linguistiques de grande taille (LLM) s’intègrent progressivement dans les processus du département de la Défense des États-Unis. Nous menons des projets pilotes dans les environnements de niveau d'impact 5 (IL5) et 6 (IL6). L’IL5 concerne les informations non classifiées contrôlées (CUI) et les données sensibles aux missions, tandis que l’IL6 couvre les informations classifiées au niveau secret. Ces niveaux correspondent aux réseaux parmi les plus sécurisés du département de la Défense.
Vous pourriez croire qu’exécuter un LLM en IL5 ou IL6 avec un accès aux données en lecture seule garantit la sécurité. Pourtant, cette idée néglige une réalité essentielle : les attaques par injection de requêtes ne visent pas les réseaux ou les droits d’accès, mais la logique même du modèle. Même un LLM « lecture seule » dans l’enclave la plus sécurisée peut être manipulé pour divulguer des informations ou contourner les règles. Ce billet explique pourquoi les protections IL5/6 ne suffisent pas, comment fonctionnent les injections de requêtes, et quelles actions les équipes cybersécurité du DoD doivent mener.
Les accréditations IL5 et IL6 garantissent une protection robuste du réseau et des données. Elles visent à repousser les menaces et à protéger les systèmes essentiels à vos missions. Pourtant, les menaces au niveau de la couche applicative contournent complètement les défenses périmétriques. L’injection de prompt exploite la façon dont les LLM traitent les instructions, indépendamment de leur contexte réseau. Un modèle en IL6 peut toujours être manipulé si un prompt malveillant ou trompeur lui parvient. Il ne s’agit pas d’une brèche réseau classique, mais du système d’IA lui-même qui devient vecteur d’attaque.
L’injection de prompt est simple en théorie et dévastatrice en pratique. Plutôt que de pirater le code, l’attaquant fournit un texte conçu pour pousser l’IA à contourner ses règles ou à divulguer des informations. Les LLM ne distinguent pas naturellement entre instructions système « sûres » et malveillantes lorsqu’elles sont présentées ensemble.
Des exemples concrets illustrent la simplicité de ce risque :
Une pratique courante consiste à limiter aux LLM un accès en lecture seule aux données. Cela réduit le risque que les LLM altèrent les systèmes, mais cela ne les empêche pas de divulguer les informations consultées. Une injection de prompt peut contraindre un modèle d’IA à résumer ou révéler des documents sensibles entiers, même s’il ne devait pas les divulguer.
Pour réduire les risques, de nombreux pilotes du DoD utilisent la génération augmentée par récupération (RAG). Plutôt que de préformer les LLM sur des corpus sensibles, RAG récupère uniquement les extraits pertinents de bases de données triées, requête par requête. Vous limitez ainsi l’exposition et respectez les principes de minimisation des données. RAG offre des avantages indéniables : il garde la plupart des données sensibles hors de la mémoire long terme du modèle, base les réponses sur des contenus validés et permet l’audit. Cependant, RAG ne supprime pas le risque d’injection dans la requête.
Sécuriser les LLM requiert avant tout un changement de perspective : considérez l’IA comme un réseau non fiable tant que vous n’avez pas de preuves contraires. Appliquer le principe de confiance zéro aux LLM implique de vérifier et restreindre chaque entrée, de considérer les sorties comme non fiables jusqu’à leur analyse et approbation, de limiter ce que le modèle peut voir ou exécuter, et de surveiller chaque interaction pour détecter toute anomalie.
Dans de nombreux cas d'usage du DoD, vous interagissez avec les LLM via des API hébergées par le fournisseur (par exemple, en appelant les points de terminaison OpenAI ou Azure OpenAI depuis une application). Cette couche d’API génère ses propres risques de sécurité, notamment les abus de modèle, les jetons avec permissions excessives, les charges utiles injectées via JSON et la multiplication des points de terminaison. Les solutions F5 Distributed Cloud Web App and API Protection (WAAP) relèvent ces défis en détectant les points de terminaison API liés à l’IA, en appliquant une validation des schémas, en repérant les anomalies et en bloquant en temps réel les tentatives d’injection.
Aujourd’hui, la majorité des utilisations du DoD LLM se connectent à des modèles hébergés par des fournisseurs. Ces requêtes IA sortantes génèrent un angle mort : un trafic TLS chiffré qui transporte des questions et des réponses potentiellement sensibles. F5 BIG-IP SSL Orchestrator résout ce problème en décryptant et gérant le trafic sortant pour permettre son inspection selon les règles établies. BIG-IP SSL Orchestrator vous permet de savoir précisément quelles données vos équipes DoD transmettent aux services d'IA externes, d’appliquer des règles de prévention des pertes de données (DLP) pour éviter les fuites, et d’auditer toutes les interactions avec l’IA.
Avec le DoD qui migre vers l’hébergement de LLM internes sur l’infrastructure IL5/IL6, F5 AI Gateway devient le point d’application qui garantira que chaque requête et réponse respecte des règles strictes—un contrôle zéro confiance pour encadrer le comportement de l’IA. Vous pouvez bloquer les injections de requêtes en temps réel, appliquer l’accès aux données selon les rôles, et consigner chaque interaction pour assurer la conformité.
L’IA générative offre d’immenses avantages opérationnels, à condition de l’adopter en toute connaissance de cause. Les niveaux IL5/6 ne suffisent pas à vous protéger contre l’injection de commandes, mais une approche multicouche basée sur le zero trust le peut. Les équipes du DoD doivent intégrer dès aujourd’hui l’usage de l’IA dans leurs architectures zero-trust, surveiller activement, et appliquer les mêmes contrôles sur les flux de données de l’IA que pour les communications humaines sensibles.
Pour plus de détails, consultez la page des solutions pour le secteur public F5.