ブログ

セキュリティ運用チームはAIをどう評価していますか?

ショーン・ワームケ サムネイル
ショーン・ワームケ
2025年9月11日公開

新しい技術には誰もがワクワクしますよね。 初めて大規模言語モデル(LLM)に触れたときや、初めてウェブブラウザを使ったとき、そしてデータが「クラウド」に存在するという驚きの発想を誰もが覚えているでしょう。 しかし、新たな革新が出るたびに、私たちが安心して使えるように仕組みを考える苦労するセキュリティの専門家チームが必ずいます。 AIには数え切れないほどの可能性があるため、私たちは未来の期待や大きな話題に夢中になりがちです。しかしF5がAIセキュリティで果たす役割を見定めるにあたり、私たちは一歩引いて、セキュリティコミュニティはAIをどう捉えているのかを真剣に問い直しました。

F5 では、お客様のことを第一に考えているため、インターネット最大のセキュリティ専門家コミュニティであるReddit の r/cybersecurity のトップユーザーによる過去 1 年間 (2024 年 7 月~ 2025 年 6 月) の AI 関連のすべてのコメントを分析しました。 私たちはすべてのコメントとユーザーを感情バケットに分類し、それぞれについて表現された、または根底にある問題点を抽出しました。

SecOps 担当者の意見は AI に関して真っ二つに分かれています

図1

48% の実践者は楽観的に捉え、すでに自分のスタックで活用していますが、残りは将来に対して懐疑的か不安を感じています。

セキュリティオペレーション担当者の半数はAIに期待を寄せています。彼らはAI搭載ツールを活用し、繰り返しの作業を自動化し、AIアシスタントでアラートの優先順位を効率的に判断しています。

コメントの半分は、AIシステムを安全に守る難題への不安に分かれ、もう半分はAIの進化はこれ以上大きくは進まないという懐疑的な見方でした。 

図2

データ保護は、Redditのr/cybersecurityでセキュリティ担当者が最も懸念を示す事項です。次に観測性や異常検知、AIを活用した攻撃への関心が高まっています。

シャドーAIとデータセキュリティ

AIの膨大なデータ要求とサイバーセキュリティの基本原則の間での緊張が、データ セキュリティを議論の中心に押し上げています。 2025年、セキュリティ専門家の最重要課題として浮上し、企業がAIの導入を急速に進める中でその重要性はますます高まっています。

この分野で最も深刻な課題はシャドーAI、つまり不正なユーザーによるAIシステムの操作です。 組織がAI導入の初期段階であろうと成熟していようと、この問題は変わらず存在し続けます。 

可観測性は機能ではなく、基本的な必須条件です

データ セキュリティが話題の中心かもしれませんが、SecOps では観測性と異常検知が次に重要なAIの課題となっています。 ベンダーがAIでセキュリティワークフローを支援できると主張する一方で、実務者はバランスの重要性を強調します。 「AIセキュリティエージェントにできることは限られており、常に人の介入が欠かせません。」 あるアナリストは、AIを活用してEDRアラートのL1トリアージを自動化しMTTTを45分から2分以内に短縮した経験を語りながらも、「そのためには厳しいガードレール策が何重にも必要だった」と付け加えました。 私たちが求めるのは一貫した取り組みです。AIとのやりとり全体を継続的に可視化・追跡し、反復作業を自動化しながら、戦略的な判断は人の手で行う。これが不可欠です。 

攻撃者の手口は進化しています

これは単なる理論上の脅威ではなく、機会主義者の下限を引き上げ、巧妙化した脅威行為者の上限を高める力の増幅装置です。 実際には、こうした変化は、AIシステムを狙うプロンプトインジェクションやジェイルブレイク攻撃といった新たな敵対的AI技術と、フィッシングやディープフェイクのようなソーシャルエンジニアリング攻撃の悪意ある拡散の二つの形で論じられています。 モデルやエージェントがより多くのツールやデータに接続する中、後者への懸念は一層強まっています。 

モデルの振る舞いには指針が必要です

さらに12%の問題として、モデルの動作と出力の品質がセキュリティリスクと挙げられました。 最も懸念されたのは幻覚、精度のズレ、有害な出力でしたが、特に深刻なのは権限の昇格であり、AIが許可のないデータにアクセスしたり、権限のないタスクを実行したりすることです。 ここでSecOpsは、ビジネスリスクに応じたコンテンツモデレーション、ポリシーの整合、モデルやエージェントに対する明確な権限付与という実用的なガードレールを求めています。

SecOpsがAIセキュリティに求める価値

行間から、あるいは時には直接、セキュリティ チームはベンダーにより高い基準の達成を求めています。

  • データ セキュリティを最優先に考えましょう: 最小権限を反映する AI ポリシー適用とアクセス制御のためのデータ損失防止( DLP)。
  • 「AI宣伝」に惑わされないでください: 根拠ある実績でセキュリティとコンプライアンスの強さを証明します。
  • 監査に対応する可観測性を実現し、実用化しましょう: 既存のSIEMやSOARのワークフローとの統合を簡単かつ効果的に行い、すべてのやり取りに可視性を埋め込みます。
  • 人が関わる柔軟性を確保する: スピードだけでなく、成果を優先して設計しましょう。
  • 敵対的な耐性: AI の攻撃対象領域は常に変化しています。新たな脅威に合わせてソリューションも進化させる必要があります。
  • ポリシー管理をシンプルにしましょう。  手間をかけずに企業全体のポリシーと規制要件に沿えます。

あなたの声に応えます

あなたのデータ保護を最優先し、新たに台頭する敵対的脅威にセキュリティを柔軟に適応させ、すべてのやり取りで観測性を基本とし、責任あるAIガバナンスを前提に設計します。 実際のテストから得た洞察を共有し、あなたのセキュリティチームがすぐに活用できる実践的な指針を発信し、リスク軽減の過程を透明にお伝えし続けます。

安全でかつ効果的なAIに関する上のRedditのコメントを思い出しますが、私たちはその「または」を「かつ」に変えることを楽しみにしています。

皆さまの声に応えます。こちらが私たちの提案です