大規模言語モデル(LLM)が米国防総省(DoD)のワークフローに導入されています。 影響レベル5(IL5)および影響レベル6(IL6)の環境内でのパイロット導入も含まれます。 IL5は管理された非機密情報(CUI)やミッションに重要なデータを扱い、IL6は秘密レベルの機密情報まで対象を拡大します。 これらのレベルは、国防総省の最も高いセキュリティを誇るネットワークを示しています。
IL5 や IL6 で読み取り専用データアクセスの LLM を運用すれば安全だと考えるのは簡単ですが、それは誤った前提です。 なぜなら、プロンプトインジェクション攻撃はネットワークやアクセス許可を狙うのではなく、モデルのロジック自体を標的にしているからです。 最も安全なエンクレーブ内で動作する「読み取り専用」の LLM であっても、巧妙に操作されると情報漏えいやポリシー無視を引き起こす可能性があります。 このブログ記事では、IL5/6 の保護がなぜ不十分なのか、プロンプトインジェクションの仕組み、そして国防総省のサイバーセキュリティチームが取るべき対策を解説します。
IL5およびIL6の認定は、強固なネットワークとデータ保護を実現します。 私たちは敵の侵入を防ぎ、ミッションクリティカルなシステムを確実に守ります。 しかし、アプリケーション層の脅威は境界防御を完全にすり抜けます。 プロンプトインジェクションは、ネットワークの文脈ではなく、LLMが命令を処理する仕組みを悪用します。 IL6のモデルでも、悪意や誤誘導を含むプロンプトが届けば欺かれる恐れがあります。 結果として起こるのは、従来のネットワーク侵害ではなく、AIシステム自体が攻撃経路になってしまうことです。
プロンプトインジェクションは概念は単純ですが、実際には非常に破壊的です。 攻撃者はコードをハッキングする代わりに、AIがルールを無視したり情報を漏らしたりするように細工したテキストを提供します。 LLMは「安全な」システム指示と悪意ある指示が一緒に提示されると、それらを区別できません。
実際の事例が、その起きやすさを示しています。
一般的な対策として、LLMにはデータへの読み取り専用アクセスのみを付与します。 これによりLLMがシステムを変更するリスクは減りますが、読み取った情報の漏洩は防げません。 プロンプトインジェクション次第では、AIモデルが本来は公開するべきでない機密文書を要約したり一括表示したりすることもあります。
リスクを抑えるため、多くの国防総省パイロットは検索拡張生成(RAG)を活用しています。 RAGは機密コーパスでLLMを事前学習させる代わりに、クエリごとに厳選されたデータベースから関連情報だけを取得します。 これによりリスクを削減し、データ最小化の原則にも沿います。 RAGの強みは、大半の機密データをモデルの長期記憶に残さず、検証された内容に基づいて回答を作成し、監査にも対応できる点です。 ただし、RAGはプロンプトインジェクションを完全には防げません。
LLMを確実に守るには、AIを信頼できない存在として扱うという考え方の転換が欠かせません。 LLMにゼロトラストを適用するには、すべての入力を検証・制限し、出力はスキャン・承認されるまでは信頼せず、モデルの閲覧や操作を最小限に抑え、すべてのやり取りを異常がないか常に監視します。
多くのDoDの事例では、ユーザーはベンダーが提供するAPIを通じてLLMとやり取りします(例えば、アプリケーションからOpenAIやAzure OpenAIのエンドポイントを呼び出す場合です)。 このAPI層には、モデルの悪用、過剰な権限を持つトークン、JSON経由のインジェクションペイロード、エンドポイントの分散など、独自のセキュリティリスクがあります。 F5 Distributed Cloud Web App and API Protection (WAAP)は、AI関連のAPIエンドポイントを検出し、スキーマ検証を適用し、異常を察知し、インジェクションの試みをリアルタイムでブロックして、これらの問題を解決します。
現在、DoDのLLM利用の大半はベンダー管理のモデルに接続しています。 こうしたアウトバウンドAIクエリが、暗号化されたTLS通信に潜む機密性の高いプロンプトと応答という盲点を生み出しています。 F5 BIG-IP SSL Orchestratorは、送信トラフィックを復号し管理することで、ポリシーに基づいた検査を可能にしてこの課題を解決します。 BIG-IP SSL Orchestratorにより、DoDチームは外部AIサービスに送られるデータを正確に把握し、データ漏洩防止(DLP)ルールを適用して漏れを阻止、全AIのやり取りを監査できるようになります。
DoD が IL5/IL6 インフラストラクチャ上で内部 LLM をホストするにあたり、F5 AI Gateway はすべてのプロンプトと回答を確実に定められたガードレール内におさめる強制ポイントとなり、AI の動作に対するゼロトラストのチェックポイントとして機能します。 リアルタイムでプロンプトインジェクションを阻止し、役割に応じたデータアクセスを厳格に管理し、すべての対話をコンプライアンス用に記録します。
生成AIは大きなミッション上の利点をもたらしますが、それは注意深く取り入れた場合のみです。 IL5/6ではプロンプトインジェクションを防げませんが、階層化されたゼロトラスト戦略なら防げます。 DoDのチームは今すぐAIの利用をゼロトラストのアーキテクチャに組み込み、積極的に監視し、人間の機密コミュニケーションと同様にAIデータの流れにも厳格な制御をかけるべきです。
詳しくは、F5 公共部門向けソリューションのページをご覧ください。