ブログ

SecOpsはAIをどう捉えているのか?

ショーン・ワームケ サムネイル
ショーン・ワームケ
2025年9月11日公開

新しい技術には誰でもワクワクします。 初めてLLMにプロンプトを投げた時の感動、初めてウェブブラウザを使った体験、そしてデータが“クラウド”に存在すると聞いて驚いたこと、誰もが覚えているでしょう。 しかし、毎回の新技術には、私たちが安全に使えるように方法を模索するセキュリティの専門家チームがいます。 AIがもたらす未来の可能性に夢中になりがちですが、私たちF5がAIセキュリティで担うべき役割を考える中で、読者の皆さんに改めて問いたいと思います。セキュリティコミュニティはAIをどう捉えているのでしょうか?

F5 では、お客様のことを第一に考えているため、インターネット最大のセキュリティ専門家コミュニティである Reddit の r/cybersecurity のトップユーザーによる過去 1 年間 (2024 年 7 月~ 2025 年 6 月) のすべての AI 関連コメントを分析しました。 各コメントとユーザーを感情バケットに分類し、それぞれについて表現された、または根底にある問題点を抽出しました。

SecOps 担当者の意見は AI に関して真っ二つに分かれています

図1

48% の実践者は楽観的に捉え、すでに自分のスタックで活用していますが、残りは将来に対して懐疑的か不安を感じています。

セキュリティオペレーション担当者の半数はAIに期待しています。彼らはAI搭載ツールをスタックに組み込み、繰り返し作業を自動化し、AIアシスタントでアラートの優先順位を効率的に決めています。

新たな侵入パターンの検知力の高さには本当に驚かされます。」

「AIは今後も活躍し続けます。あなたの補助役、助っ人として活用しましょう。」

残りの半分は、AI システムを守るという難しい課題への不安と、AI は今以上に大きく進展しないだろうという懐疑心で分かれています。

図2

「AI=私たちがほとんど理解していないアプリケーションであり、何十年もきちんと守れていなかった既存のアプリケーション上に構築されています」

シャドーAIとデータ セキュリティ

AIのデータ需要とサイバーセキュリティの基本原則の間で緊張が高まり、データセキュリティが議論の中心に浮上しています。 今年初め、セキュリティ専門家の最重要課題として浮上し、企業がAIの導入を加速する中、一層深刻化しています。

AIが効果を発揮するのはデータがあるからです。 アクセスできるデータが多いほど、AIはより効果的になります。 しかし、このモデルは、アクセス制御やネットワーク分割、最小権限の原則でデータへのアクセスを守ることと真っ向から矛盾しています。 大規模にAIを導入するには、AIモデルがデータへアクセスしやすくするために多くのセキュリティ管理を実質的に解除しなければなりません。 つまり今、企業が選ぶべきは効果的なAIか、強固なセキュリティか、どちらかです」

この分野で特に問題となっているのはシャドーAI、つまりAIシステムに対する不正なユーザー操作です。 AIの導入段階が初期であれ成熟していようと、この問題は常に存在し続けます。

可観測性は機能ではなく、不可欠な基盤です

データ セキュリティが話題の中心ですが、SecOpsで次に強く注目されているAIへの関心は観測性と異常検知です。 ベンダーがAIを使ったセキュリティワークフローの支援を謳う中で、実務者はバランスの重要性を強調しています。 「AIセキュリティエージェントにできることは限られており、常に人間の判断が欠かせません。」 あるアナリストは、AIを利用してEDRアラートのL1トリアージを自動化し、MTTTを45分から2分未満に短縮した経験を共有しましたが「これには何重ものガードレールが不可欠でした」とも強調しました。 求められているのは一つです。AIを介するすべてのやり取りに継続的な可視性と追跡性を確立し、繰り返し作業は自動化し、戦略的な判断は人間に任せることです。

攻撃者の手口は変化しています

AIを考える最良の方法は、攻撃者を数十人、数百人の従業員で強化するイメージを持つことです。現在、上位5%の攻撃者は効果を50~300%高めています。 これは単なる理論上の脅威ではなく、機会を狙う者の下限を底上げし、巧妙な脅威の上限を押し上げる力の増幅器です。 実際には、こうした変化を新たな敵対的AI技術―例えばプロンプトインジェクションやAIシステムを標的にしたジェイルブレイク攻撃―と、フィッシングやディープフェイクを使った悪意のあるソーシャルエンジニアリング攻撃の広がりという二つの形で語ります。 モデルやエージェントがさらに多くのツールやデータと繋がるにつれ、後者への懸念は高まる一方です。 

モデルの動作には適切なガードレールが必要です

さらに12%の課題では、モデルの動作や出力の品質自体がセキュリティリスクだと指摘されています。 主な懸念は幻覚、精度のズレ、有害な出力でしたが、特にもとめられたのは権限の昇格、つまりAIが許可されていないデータにアクセスしたりタスクを実行する事態です。 この点でSecOpsは、ビジネスリスクに応じたコンテンツモデレーション、ポリシーの整合性、そしてモデルやエージェントに対する明確な権限設定という実用的なガードレールを推進しています。

SecOpsがAIセキュリティに期待すること

行間を読み取り、時には直接そう聞くことで、セキュリティチームはベンダーに対し、より高い基準を求めています。

  • まずデータセキュリティを守りましょう - AIポリシー実施のためのDLPと、最小権限に基づくアクセス管理を提供します
  • AIウォッシング」は排除 —効果を誇張するのではなく、確かな証拠でセキュリティとコンプライアンス能力を証明します
  • 監査に耐える可観測性を確保し、使いやすくする– 既存のSIEM/SOARワークフローにシンプルかつ効果的に統合し、あらゆるやり取りに可視性を追加します
  • 人間の判断を尊重した柔軟性 -スピードだけでなく影響を重視した設計
  • 敵対的耐性 - AI 攻撃の表面は常に変化し、新たな脅威に応じて対応策も進化させていく必要があります
  • ポリシー管理を簡素化 - 手間なく企業全体のポリシーや規制フレームワークに対応できます

私たちはその声に応えます

データ保護を最優先し、変化する敵対的脅威に対応しながら保護を進化させ、すべてのやり取りの可視性を根幹に据え、責任あるAIガバナンスを念頭に設計します。 私たちは実践的な洞察を共有し、セキュリティチームがすぐに役立つガイダンスを提供し、リスク軽減の過程で常に透明性を重視します。 「安全なまたは効果的なAI」という言葉を思い返し、私たちはその「または」を「かつ」に変える日を心待ちにしています。

あなたの声に応えます、私たちの答えです