イノベーションは一つの要素です。 ガバナンスはまた別の課題です。 複数の調査データから明らかになったのは、ガバナンスに問題があるにもかかわらず、企業が生成AIの導入を猛烈な勢いで進めていることです。
PWCの2025年5月のAIエージェント調査によると、79%の企業がAIを導入しており、エージェント型AIの検討を全くしていない企業はわずか2%です。 そのエージェントが、作業計画の作成や多段階の行動実行、結果の評価、自己調整といった真のエージェント的特徴を持つか、単に特定の大規模言語モデル(LLM)に一度きりのリクエストを送るチャットボットであるかにかかわらず、導入率は非常に高く、ほぼすべての企業が来年のAI投資を増やす計画です。
AI システムの設計、導入、運用に伴う課題に対応するための運用能力をAI準備指数で定量化した当社独自の調査によると、高度に準備が整っている組織はわずか2%に過ぎません。
それでも、EYの調査によれば、多くのビジネスリーダーは来年の今頃までに競合に差をつけるには、今年中にエージェント型AIを採用せざるを得ないと考えています。ITおよびセキュリティチームにも選択肢はありません。 セキュリティとガバナンスのギャップを意識的に埋めるためにペースを落とした組織は、それを無視する組織よりも2026年には、より堅固でリスクの少ないビジネス状態へ前進しています。 次の3つの実践が、生成型とエージェント型AI導入のリスクを減らす三位一体の戦略となります。
新しい技術は必ず保護が必要で、あらゆる生成AIは一つ以上のLLMを中核に据えています。 モデルの開発者を信頼して精度を高め、誤認識や不正解除を防ぐだけでは不十分です。 企業は、望ましくない動作を独自に検出し防止できるプロンプトとモデルのサービスに投資すべきです。 さらに、多くの企業は複数のLLMを利用しているため、推論APIコールからアプリケーションを難読化し、可用性、ルーティング、スケーリング、コスト管理といった要件に対応しなければなりません。
モデルに公開される企業データは、ビジネスにとって新規かどうかに関わりません。 重要なのは、常にデータを守ることであり、その場所にあるときだけでなく、ネットワークを移動する際の暗号化だけで済む話ではありません。 承認済みのサードパーティサービスや第三者が使う場合であっても、あらゆる形態で企業内部に存在するデータすべてを特定し、保護する必要があります。 誤解しないでください。 出所ではなく、 流出の防止にこそ焦点を当てています。
エージェントは、大型言語モデル(LLM)を利用して自身で設定した最終目標を達成するための行動を決定し、ゲームの流れを変えます。 そのためには、行動を実行し資源にアクセスし、情報を作成・変更・削除する権限が必要です。 エージェントを効果的に観察・評価できる外部の何かが近くで監視し制御しなければなりません。 今後数か月で成熟が期待され、注目すべき二つの主要なアプローチに、ガードレールフレームワーク(例:MCP-Universe)とLLMをジャッジとして機能させるフレームワーク(例:Microsoft LLM-as-a-Judge Framework)があります。
前者は、非常に具体的なタスクベースの操作を用いてグラウンドトゥルースを定義し、エージェントが起動した操作の結果を、明確に指示されたソフトウェアが事前取得した別の操作と比較します。 その強みは、天気や歴史的事実などの様々な情報を検証するために、選択済みで信頼できるソースを使ったサンプルコードの領域が常に広がっていることです。 情報を収集し、その結果をグラウンドトゥルースとして、展開されたエージェントの結果と直接比較します。
後者は異なるLLM、場合によっては複数のLLMを使い、展開されたエージェントの行動を分析して、ビジネスが定めた結果の質と適切性を評価します。 どちらも有望で急速に進化しており、ビジネスの管理下にあります。 さらに、必要に応じて人間を介した制御で強化することも可能です。
モデル、データ、エージェントを包括的に制御するこの三位一体の仕組みにより、生成AIやエージェントシステムに伴う新たなリスクから企業を確実に守り、サイバーセキュリティとガバナンスの穴を埋めます。
独立したインフラストラクチャ サービスとしてこれらの制御を活用する方法については、AIアプリやエージェントの防御、レッドチーム、ガバナンスの先駆者であるCalypsoAIに関するF5の最新発表をご覧ください。