ブログ

AIシステムの保護 なぜセキュリティはイノベーションに追いつく必要があるのか

F5 ニュースルームスタッフサムネイル
F5ニュースルームスタッフ
2025年8月4日 発表

人工知能は生活を一変させる力を持ち、実際に大きな変化をもたらしています。 医学や教育の飛躍的な進歩から、働き方や日常生活の再編まで、AIは私たちの生活や行動を根本から変えています。 しかし、その一方で、AIはサイバー犯罪者に強力な機会も提供しています。

現在、私たちのAIシステムは、データポイズニングや出力の改ざん、蒸留を利用した不正なモデルの盗用、そして機密データの流出といった脆弱性を悪用する攻撃者の積極的な標的になっています。 こうしたリスクは単なる憶測ではなく、実際に存在し、急速に進化しており、経済的な損失をもたらす可能性があります。 モデルはまた、電子メール攻撃やSMS・音声詐欺の手口を大幅に高度化させるためにも使われています。ディープフェイクは検出がますます困難になり、数百万ドルの損害を招くケースも増えています。

2025年のスタンフォードAIインデックスレポートによると、2024年のAI関連セキュリティインシデントは56.4%増加し、報告件数は233件に達しました。 これらは単なる障害や技術的な不具合ではありません。 プライバシー侵害や誤情報の拡散、アルゴリズムの操作、そして機密性が求められる意思決定を危険にさらす故障など、深刻な影響を及ぼす事案でした。

しかし、私たちのお気に入りの統計の一つは、侵害と検出の間の滞留時間です。 IBMの2025年第1四半期レポートによると、AIに特化した侵害の検出と封じ込めには平均290日かかり、従来のデータ侵害の平均207日を大きく上回っています。 約10か月にわたるこの露出期間により、AIを活用した攻撃者は深刻な被害を与える余裕を持ってしまいます。

なぜ多くの企業がまだ準備できていないのか

AIの恩恵を引き続き得るには、そのセキュリティをネットワークやデータベース、アプリケーションと同じ緊急度で対策する必要があります。 しかし、導入と保護のバランスの悪さは、別の現実を示しています。

F5の2025年AIアプリケーションの現状レポートは、この点を明確に示しています。 調査対象の組織のうち、安全性が高くAIを安全に拡大する準備ができているのはわずか2%でした。 一方で、77%の組織がAIのセキュリティとガバナンスに深刻な課題を抱えています。

報告書は、中程度に準備が整っている企業でも、基盤となる安全対策を導入しているのはわずかだと指摘しています。 AIファイアウォールを導入した企業は18%に過ぎず、敵対的行動を検出するための重要な手法である継続的なデータラベリングを実施しているのは24%のみでした。 さらに問題を複雑にしているのは、シャドーAIの利用拡大です。無許可または未承認のAIツールが、企業環境に危険な視界の死角を作り出しています。

競争上の優位性を求めてAIを導入する過程で、多くの組織が知らず知らずのうちに攻撃対象領域を広げています。

AIが攻撃を受けやすい理由

AIの独特な特性が、新たな攻撃手法に対する脆弱性を生み出しています。 特に重要な脆弱性には以下のものがあります。

  • データ ポイズニング: 攻撃者はトレーニングセットに微妙に不正または誤解を招くデータを注入し、AIモデルの挙動を狂わせます。 2024年、テキサス大学の研究者たちは、参照された文書に埋め込まれた悪意のあるコンテンツがモデル出力に影響を与え、文書を削除した後もその影響が続くことを明らかにしました。
  • モデル反転と抽出: これらの攻撃により、攻撃者は機密トレーニングデータを再現したり、独自モデルを複製したりできます。 実例として、診断システムから患者画像を復元したり、言語モデルからプライベートな音声録音や内部テキストを再構築したケースがあります。
  • 回避攻撃: 攻撃者は入力データに微細でほとんど気づかれない変更を加え、AIモデルを誤った結果を出すように巧妙に誘導します。 例えば、研究者は無害に見えるステッカーを貼ることで、自動運転車の視覚システムに一時停止の標識を速度制限の標識と誤認させました。
  • プロンプト注入: 大規模言語モデル(LLM)は、巧妙に作られた入力によって動作を操作されやすくなっています。 ある事例では、シボレーの販売店で使われていたChatGPT搭載チャットボットが、車を1ドルで売ることに同意するよう誘導され、評判や法的根拠のリスクが明らかになりました。

これらの脅威は単なる理論ではありません。 巧妙化した脅威がすでに現実に活動し、業界のあらゆる分野でAIの安全性と信頼性を脅かしています。

強固なAI防御のセキュリティ戦略を構築する

これらの課題に対応するには、組織がサイバーセキュリティ全般とAI固有のリスクの両面を包括的に守る防御戦略を実践する必要があります。 以下の5つのステップは、あなたの企業がAIシステムの安全を確実にするための指針となります。

  1. データガバナンスを強化する
    モデル、API、トレーニングデータセットを含むAI資産を明確に把握し、厳格なアクセス管理の方針を実施しましょう。 データはAIの基盤です。私たちはその完全性をあらゆる段階で守ります。
  2. 継続的にテストしましょう
    従来のコードレビューにとどまらず、敵対的テストやレッドチーミングを取り入れてください。 これらの手法は、攻撃者に利用される前にモデル反転やプロンプトインジェクションなどの弱点を明らかにします。
  3. プライバシーを最優先した設計を取り入れましょう
    暗号化やデータ最小化、差分プライバシーの手法を活用してください。 これらの手法は、万が一の違反時にも機密データの露出リスクを抑えます。
  4. ゼロトラストアーキテクチャを採用する
    全てのAIシステムに「決して信用せず、常に検証する」という考え方を徹底しましょう。 あらゆるコンポーネントとユーザーには最小限のアクセス権のみを与え、すべての行動を厳格に検証します。
  5. AIの行動をリアルタイムで監視
    モデルの動作や入力パターンの異常を検知するツールやシステムを導入しましょう。 APIの過剰呼び出しや不審なプロンプト、異常な出力など、巧妙化した脅威の兆候になる事象を常に監視します。

F5が考えるAIセキュリティへの取り組み

多くの組織がハイブリッドおよびマルチクラウド環境を採用する中で、F5はアプリケーション デリバリおよびセキュリティ プラットフォーム(ADSP)を通じて、最新のインフラを守るAIネイティブのセキュリティ機能を提供しています。

このプラットフォームの一部であるF5 AI Gatewayは、LLMのリクエストを高精度に検査・ルーティングし、プロンプトインジェクションやデータ漏洩を防ぎます。 F5 Distributed Cloud API SecurityとNGINX App Protectが提供する高度なAPIセキュリティソリューションは、APIの不正利用、データ流出、悪用を確実に防ぎます。

F5 ADSP の一部である F5 Distributed Cloud Bot Defense は、機械学習を活用して、誤検知を抑えながらクレデンシャル スタッフィングなどの自動化された脅威を検出し、阻止します。 また、F5 BIG-IP Advanced WAF ソリューションは、アプリケーションと API を保護しつつ、GPU からセキュリティタスクをオフロードして、AI 集約型ワークロードのパフォーマンスを向上させます。

さらに、F5のAIリファレンスアーキテクチャがハイブリッドおよびマルチクラウド環境にわたり安全で信頼性の高いAIインフラストラクチャの設計図を提示します。 F5はIntel、Red Hat、MinIO、Google Cloud Platformをはじめとする主要なAIイノベーターと協業し、お客様が安全で効率的にスケールできるよう支援します。

最後に: AIの安全を守り、未来を確かなものに

AIはあらゆる業界を変革していますが、その可能性にはこれまでにないリスクが伴っています。 巧妙化した脅威に対応するため、セキュリティの責任者であるあなたは迅速かつ先見の明を持ち、積極的なツールと洗練されたアーキテクチャ、そしてポリシーに基づく保護を積極的に取り入れてください。

AI セキュリティを、企業戦略の核心にしっかり組み込む必要があります。 米国国立標準技術研究所の AI リスク管理フレームワークのような信頼できる枠組みを土台に、規制と技術、そして企業文化を適切に組み合わせれば— F5 ADSP のようなプラットフォームの支援を得て、組織は AI の可能性を最大限に引き出しながら、その影の部分から効果的に守れます。

AIの最前線が到来しています。 今こそその安全を確実に守りましょう。

Black Hatのパネルディスカッションにぜひご参加ください

今週ラスベガスで開催される Black Hat USA 2025 に参加されるなら、ぜひ AI Summit で F5 フィールド CISO チャック・ヘリンと他の専門家たちによるパネル討論会にご参加ください。AI 時代に向けたデジタル防御の強化方法を語り合います。 

また、 F5 のエンタープライズ AI 配信およびセキュリティ ソリューションの詳細については、当社の Web ページをご覧ください。