ブログ

SecOpsはAIをどう捉えているのでしょうか? パート2: データ保護

マーク・トーラーのサムネイル
マーク・トーラー
2025年9月15日公開

AIはさまざまな感情を引き起こします。 中には、NFTや3Dテレビと同じように一過性の流行に過ぎないと考える人もいます。 一方で、自己認識を持つ悪意あるAGIの支配者に備えてシェルターを建てる人もいます。 誇張の渦中でも、はっきりと言える現実がひとつあります。 AIは大量のデータと深く結びついています。

AIについては、世間で大きな話題となり、評論家が興奮したり、不安になったり、懐疑的になることもありますが、私たちF5は、日々現場でAIに向き合う皆さんの率直な声に関心を持っています。 現場の課題や懸念を正確に把握するため、インターネット最大級のセキュリティ専門家コミュニティであるRedditのr/cybersecurityで包括的な感情分析を実施しました。  Shawn Wormkeが執筆したこの調査のパート1ブログ「SecOpsはAIについてどう感じているか?」では、全体の調査結果をまとめています。 引用はすべて、2024年7月から2025年6月までにセキュリティの実務者が投稿したコメントから直接抜粋しました。 今回は、今年最もAIに関連する重要な懸念事項であるデータセキュリティに焦点を当てて詳しく掘り下げます。

課題の割合チャート

2025年、データ セキュリティはAIに関する最重要課題となり、1月に発生したDeepSeek攻撃がその流れを一層加速させました。

機密情報の漏えい、シャドーAI、コンプライアンスに対する懸念が高まっています

多くの人は、悪意のある者がAIを使って巧妙なソーシャルエンジニアリング攻撃を行い、知能を持つボットの大群を解き放つAIの脅威を想像しています。 確かにその脅威は現実的ですが、セキュリティ専門家は、より単純でありながら同様に深刻で、はるかに広範に及ぶ別の状況を指摘しています。 実際、SecOpsでは内部でのAIの誤用に関する懸念が、悪意ある乱用よりも2.3倍多く挙がっています

これは最初の問題である機密情報の開示の核心に迫るものです。 ある実務家は簡潔にこう述べています。「現実的に考えれば、誰もが職場で LLM を使用しており、あらゆる種類の機密情報をプロンプトに入力しています。」 モデルのコンテキスト ウィンドウが大きくなり、検索拡張生成 (RAG) で使用できるファイル タイプが増えるにつれて、従業員は、情報に基づいた出力を得るための最も早い方法は、LLM に必要なすべての情報を提供することであると理解するようになりました。 これは、ゼロトラストの重要な柱である最小権限の原則に真っ向から反するものです。 簡単に言えば、「セキュリティと機能の間には常に緊張関係がある」ということです。

従来のポリシー実施戦略は効果を発揮していません

多くの組織が AI セキュリティ確保のためにまず採用するのが許容使用ポリシー(AUP)です。 さまざまな手法がありますが、従来の抑止策や制限だけでは不十分だと一致した見解があります。

あるユーザーの言葉を借りれば、従来のツールであるWebアプリケーションファイアウォール(WAF)やDNSフィルタリングは、問題の先延ばしにすぎません。  「それらをブロックすれば、実質的にデータを無料のサービスに押し込めることになるのです。 ブラックリストの対応は、まるでモグラ叩きのように終わりがありません。」 ここで、昨年最も話題となった課題のひとつ「シャドーAI」が浮上します。新しいモデルは毎日リリースされ、そのラッパーは毎時間作られています。 ユーザーは、自分の優先事項の達成を妨げると感じるポリシーを必ず回避する方法を見つけ出します。

シャドーAIと機密データの漏洩という二大懸念が重なることで、セキュリティチームにとっては見えないままリスクが拡大する最悪の事態が生まれます。 ユーザーは主流のLLMを活用して読解時間を短縮しようとし、その過程で機密文書をアップロードしてしまうかもしれません。 しかしシャドーAIソリューションを使えば、SecOpsチームはそうしたやり取りを監視し、複数のリスク軽減策を講じられます。 将来的なやりとりにおいて特定の個人に注視したり、行動変化が確認できるまでその人の重要なリソースへのアクセスを制限したりも可能です。 シャドーAIソリューションがない場合、ファイアウォールやDNSブロッキングなどの従来の対策はユーザーを同じ基盤モデルを隠す巣へ押しやるだけで、リスクある行動の形状やスタイル、場所を見破ることはできません。

コンプライアンスはすべてのセキュリティのリスクが集約される場所です

EU AI法や一般データ保護規則(GDPR)などのコンプライアンス基準が既存の業界別規制の上に積み重なる中、適切なAIデータガバナンスを欠く組織は、罰金や法的責任、そして社会的信頼の喪失を招くリスクを抱えています。 

セキュリティの専門家は、セキュリティの重要性よりも熱意や競争力の維持が優先される技術を数多く見てきました。 クラウドコンピューティングは、現在のAIと同じ道を歩んでいます。すぐに広まった期待と可能性の高まりの後で、設定ミスや過剰なアクセス、共有責任モデルの失敗が問題となりました。 覚えがありますか? 違いは、クラウドでは全体のリスクに関与できる関係者の数がずっと限られていたことです。 AIセキュリティの新たな課題は、クラウドのアーキテクトやエンジニアに加え、モデルを含め機密性の高いデータにアクセスできるすべての人が対象になります。 

現場の専門家が課題をしっかり理解しています

どんな技術もリスクをまったく伴わずに登場したことはなく、世界が一斉に「リスクが大きすぎるから即中止しよう」と合意した例もありません。 あなたも、セキュリティ担当者として重要で困難な道を前にしていることを理解しているはずです。

AIがデータとやり取りする際に効果的なガードレールを設け、継続的に監視することは難しいですが、AIの普及がこのまま進むなら不可欠な課題です。

F5はこれらの課題に積極的に取り組んでおり、今後もSecOpsの意見をもとに優先事項を決めていきます。 詳しくはこちらをご覧ください。