ブログ | CTO オフィス

脅威モデリングとインシデント対応のための生成 AI

数年前、私たちのほとんどは「生成 AI」を、シュールな肖像画を描いたり、音楽を作曲したり、短編小説を書いたりといった芸術的な取り組みと関連付けていました。 時代は進み、現在では、同じ生成技術がサイバーセキュリティの強力なツールに変化しています。 かつては気まぐれな猫の画像を作成するために使用されていたテクノロジーが、今では巧妙化した脅威ベクトルの検出と現実世界のインシデントへの対応に役立っているというのは、少し皮肉なことです。

しかし、生成 AI とサイバーセキュリティのこの融合は単なる誇大宣伝なのでしょうか? それとも、私たちは脅威モデリングとインシデント対応における新しい時代の始まりにいるのでしょうか。それは、攻撃を検出して軽減するまでの平均時間を大幅に短縮できる時代です。 私は、生成 AI が、新たな脅威の特定と、効率的なデータ主導の対応の調整の両方において、ゲームチェンジャーになる準備ができていると主張します。 しかし、他の新興技術と同様に、落とし穴がないわけではありません。 さあ、始めましょう。

論文: パターンを合成し、新しい攻撃ベクトルを予測し、対応戦略を自動化するジェネレーティブ AI の独自の機能により、脅威のモデリングとインシデント対応機能が大幅に強化されますが、信頼性、倫理、データ ガバナンスに関する課題に正面から取り組むことが条件となります。

サイバー脅威は猛スピードで進化しており、従来のルールベースやシグネチャベースのシステムは遅れをとることがよくあります。 生成モデル(高度な大規模言語モデルなど)は、従来のヒューリスティックの範囲をはるかに超えて異常を検出し、将来の潜在的な攻撃パターンを仮説することができます。 しかし、誤検知を「幻覚」させたり、誤って悪意のあるコードを生成したりする可能性など、新たな脆弱性も生じます。 私たちは、興奮と注意を等しく持ちながら、これらの機能に取り組む必要があります。

既知のシグネチャを超えた脅威モデリング

脅威モデリングに生成 AI を使用する理由

従来、脅威のモデル化は、既知の攻撃シグネチャ、履歴パターン、および人間の専門知識に依存していました。 しかし、ポリモーフィック型マルウェア、サプライチェーンの脆弱性、ゼロデイ攻撃の急増により、純粋に反応的な方法では不十分になっています。

生成型 AI の登場です。今日の用語では、「生成型」は大規模言語モデル (LLM) を意味することが多いですが、新しいデータ パターンを生成できる他のアルゴリズムも含まれる場合があります。 これらのモデルは、疑わしいコマンドシーケンス、横方向の移動の試み、または流出パターンなど、膨大なテレメトリデータセット内の微妙な相関関係を検出します。 重要なのは、何が「悪意のある」かを明確にラベル付けすることに限定されないことです。 代わりに、それらは「通常の」動作の根本的な分布を学習し、脅威として明示的にリストされていない異常をフラグ付けできます。

ただし、異常を検出するのは最初のステップにすぎません。 特定の動作が悪意のあるものか無害なものかのラベルが付けられていない場合、LLM (または任意の生成アプローチ) を追加の分類子またはヒューリスティック チェックと連結して、何かが本当に悪意のあるものなのか、単に異常なものなのかを確認する必要がある場合があります。 たとえば、新しい横方向の移動パターンが疑わしいと仮定できますが、一部の組織ではほとんどアクセスされないジャンプ ホストを正当に使用しているため、コンテキスト内では異常は無害になります。 結局のところ、生成 AI は従来のシグネチャを超えた可能性を明らかにすることに優れていますが、どの異常が実際の脅威であるかを判断するには、自動化または人間主導の堅牢な意思決定ロジックと組み合わせる必要があります。

実際の試験: F5 サンドボックス環境

F5 では、進化する脅威環境で生成 AI モデルがどのように機能するかを確認するために、2024 年後半に制御されたシミュレーションを実行しました。 私たちは、マルチテナント環境からの匿名化されたログ データを F5 の内部テスト環境に入力し、これまでに見たことのない新しい攻撃パターンを意図的に注入しました。 当初、モデルはいくつかの「誤報」を生成しましたが (これらのモデルは過剰になることがあります)、反復的なトレーニングにより、ベースラインのシグネチャベースのシステムよりも高い精度で異常を検出できるようになりました。 本当に印象に残った部分は? また、通常のファイル共有プロトコルに偽装された特定の横方向の移動の試みなど、ブルーチームのアナリストでさえ考慮していなかった潜在的なエクスプロイトも検出されました。

「修復にかかる平均時間」の短縮

適応型レスポンス プレイブック

生成モデルは検出のためだけのものではありません。インシデントが発生したときに、推奨されるプレイブックをすぐに実行できます。 リアルタイムのログを監視し、複数のデータソースからの情報を統合し、調整された対応計画を提案する AI コラボレーターと考えてください。

たとえば、システムが高リスクの異常を検出した場合、動的なファイアウォール ポリシーを推奨したり、疑わしい仮想マシン (VM) を隔離したりすることができます。 過去の出来事から学習するため、これらの提案は時間の経過とともに改善されます。 これは、初期セットアップ後にほとんど更新されない静的なランブックからの大きな進歩です。

大規模なオーケストレーションツール

最近、主要なセキュリティ カンファレンス ( Black Hat 2024や今年新たに開始された AI-SecOps Summit など) で生成 AI 統合の波が見られました。 彼らは、AI レイヤーが SIEM、エンドポイント保護、WAF などの複数のセキュリティ ツールをリアルタイムで調整する「自律的」または「エージェント的」な対応に重点を置いています。 マルチクラウドが今日の標準である場合、AWS、Azure、オンプレミス環境全体で脅威への対応を調整する単一の生成モデルが非常に魅力的に見え始めます。

しかし、ここに落とし穴があります: 時代遅れまたは非効率的なプロセスを自動化するだけの場合、全体的なセキュリティ体制が改善されるのではなく、「より早く失敗する」リスクがあります。 基本的なワークフローを再考せずに AI を導入すると、欠陥のある手順の実行が加速される可能性があります。 だからこそ、 AI は、単に既存の作業をスピードアップするだけでなく、セキュリティと配信へのアプローチ方法を再考するための触媒として捉えるべきなのです

また、生成モデルが応答を自動化できるからといって、必ずしも自動化すべきというわけではないことにも留意する必要があります。 重要な決定(生産セグメント全体を分離するなど)について人間が常に状況を把握できるようにするには、ガードレールとエスカレーション パスが必要です。 つまり、生成 AI は、スピードだけでなくプロセスの基盤そのものを更新する意思があれば、古い前提に挑戦し、より効率的で適応性の高いインシデント対応フレームワークを設計する刺激的な機会を提供します。

2025 年の現在の話題

  • LLM戦争は続く: 大手クラウドプロバイダーは、最も「安全な」大規模言語モデル(LLM)のリリースを競い合っており、それぞれが幻覚を減らしコンプライアンスを向上させるための高度な微調整を行っていると主張している。
  • オープンソース プロジェクト: コミュニティ主導のイニシアチブ( AI-SIGSThreatGenなど)が登場し、セキュリティ研究者にカスタム生成脅威モデルを構築するためのオープンソース フレームワークを提供しています。
  • 規制の注目点: EU の新しい AI 規制提案では、生成型サイバーセキュリティapplicationsを「高リスク」テクノロジーに分類し、透明性と明示的なデータ出所を要求しています。

今は、レガシー ソリューションを飛躍させたいと考えている大企業や中堅企業による導入が増えている、活気に満ちた時期です。 しかし、組織が堅牢なデータ ガバナンス、モデルの説明可能性、説明責任のフレームワークなどの基本的な手順を省略すると、生成 AI の導入を急ぐことで問題が発生する可能性があります。

幻覚、プライバシー、倫理的ジレンマ

生成モデルは創造的な推論で人々を魅了することができますが、存在しないもっともらしい脅威を「幻覚」させることもできます。 誤検知の波により、セキュリティ運用チームが意味のないアラートの雪崩に埋もれてしまう可能性があります。 時間が経つにつれて、AI 駆動型システムへの信頼が損なわれる可能性があります。

堅牢なモデルをトレーニングするには、大量のデータが必要です。 地域によっては、プライバシー法により、使用できるログやテレメトリが制限される場合があります。 コンプライアンス上の悪夢を回避し、倫理的なデータ使用を維持するためには、機密性の高いユーザー データをスクラブまたは匿名化することが不可欠です。

より暗い裏側を無視することはできません。 脅威アクターは、生成 AI を使用して、説得力のあるフィッシングメールを作成したり、新しい形式のマルウェアを開発したり、ゼロデイをより迅速に発見したりすることができます (実際にそうしています)。 私たちがこうした防御機能を構築する際には、攻撃者も攻撃時に同様のことを行っていると想定する必要があります。

未来を受け入れる

将来的には、生成 AI は、現在の脆弱性スキャナーや侵入検知システムと同じくらい緊密に統合され、あらゆる SecOps ツールキットの標準レイヤーへと進化する可能性があります。 説明可能性の向上(AI が結論に到達する方法についての透明性の向上)により、セキュリティ チームは脅威モデリング ライフサイクルの大部分を AI に任せることに自信を持てるようになります。

また、さまざまな組織でトレーニングされた生成モデルがプライバシーを維持しながら部分的な洞察を共有する、世界的な脅威インテリジェンス連合が誕生する可能性もあります。 これにより、業界全体でゼロデイ攻撃に対する対応がより迅速かつ協調的になる可能性があります。

それでも、まだ初期段階にあることを改めて強調しておく価値はあります。 組織は、ミッションクリティカルなシナリオで生成 AI を利用する前に、データのベストプラクティス、堅牢なトレーニング パイプライン、明確に定義されたガバナンスに投資する必要があります。

セキュリティを再考する準備はできていますか?

生成 AI は、脅威のモデリングとインシデント対応に対する従来のアプローチを根本から覆す可能性があります。 パターンを創造的に分析し、対応戦略を自動化することで、幻覚、コンプライアンス、倫理的保護などの固有の課題に対処できれば、比類のないスピードと精度を実現できます。