ブログ

シャドウAI: 企業に忍び寄る静かなセキュリティリスク

レイチェル・シャーのサムネイル
レイチェル・シャー
2025年7月16日発表

人工知能は今や定着しており、2010年代以前の世界には戻れません。 生産性、イノベーション、経済への影響は、もはや圧倒的な変化をもたらしています。

しかし、その大きな利点と同時に、AIを導入する組織には深刻なリスクもあります。最も差し迫った問題の一つがシャドーAIです。これは、従業員がIT責任者の承認や認識なしにAIツールを使うケースが増えていることを指します。 この現象はまだ新しく進化途中ですが、急速にセキュリティとコンプライアンス上の重大な脅威となっています。

シャドーAIとは、従業員が許可なくソフトウェアやクラウドサービス、システムを企業内に導入するという長年の課題であるシャドーITの急速に進化した派生現象です。 シャドーITが既にガバナンスとセキュリティに負担をかけていますが、シャドーAIはさらに危険な複雑性の層を加えています。

Shadow AI の具体例をご紹介します:

  • ソフトウェアエンジニアは、個人のChatGPTやGemini、Copilotアカウントを使って定型コードを生成したり、言語を翻訳したり、レガシーコードをリファクタリングしたり、テストケースを書いたりしますが、その際に意図せず機密コードをパブリックモデルに貼り付けてしまうことがあります。 そのコードは保存されたり記録されたり、さらには漏洩するリスクがあります。 さらに問題なのは、AIが生成したコードにセキュリティ上問題のあるロジックや架空のAPI、ライセンス違反のコードが含まれていることもある点です。
  • 通信担当者が機密の戦略メモをAIツールにアップロードし、顧客向けメッセージの要約や作成を行います。 その独自の内容は現在、ITの管理外にあるサードパーティのサーバー上に保存されています。
  • 営業担当者は、メールとCRMシステムの両方に連携してAIが見込み客向けメールを自動作成するChrome拡張機能をインストールします。 そのリスクは? データ漏洩、社内ポリシー違反、GDPRやカリフォルニア消費者プライバシー法などの規制違反の可能性があります。

これらはほんの始まりに過ぎません。 業界を問わず、毎日多くのシャドーAIの事例が現れています。 問題の規模は非常に大きく、ガートナー®は「2027年までに従業員の75%がITの監視外で技術を取得、改変、または開発すると予測しており、2022年の41%から大幅に増加します」と伝えています。 その結果、トップダウンで高度に中央集権化されたサイバーセキュリティ運用モデルは通用しなくなるでしょう。 CISOはサイバーセキュリティを、エンタープライズの各所に配置された専門家や融合チームのネットワークを支える、スマートかつ中央集権化された機能に再構築しなければなりません。 こうしてサイバーセキュリティはエンタープライズの最前線まで広がり、技術とリスクの意思決定が現場により近い場所で迅速に行われるようになります。」 1

プロンプトインジェクションとデータ漏洩:最も重要な懸念点

シャドーAIによる正確な財務損失はまだ算出中ですが、その危険性は明確かつ拡大しています。 今こそ対策を講じなければ、深刻な事故や規制のリスク、そして顧客の信頼喪失を招きかねません。

最も深刻な脆弱性の一つがプロンプトインジェクションで、悪意のあるユーザーがAIへの入力を操作して制限を回避し、機密データを漏洩させるか、意図しない動作を実行させます。 AIモデルは入力をそのまま信用しがちで、こうした攻撃に弱いのです。 プロンプトインジェクションが成功すると、AIが内部データを公開したり、自動処理を破壊したり、意思決定システムを損なう可能性があります。

もう一つの大きな懸念は、個人を特定できる情報(PII)、保護された健康情報(PHI)、銀行情報や財務記録、ソースコードや独自の知的財産、認証情報やアクセスキー、顧客記録などのデータ漏洩です。

規制違反のリスクが問題をより深刻にしています。 不正なAIの利用は、GDPR、HIPAA、PCI DSS、サーベンス・オクスリー法などの基準に簡単に抵触し、あなたの企業は罰則や信用失墜のリスクを負うことになります。

禁止措置で対応する企業もありますが、それで本当に効果が出るでしょうか?

こうしたリスクに対応して、多くの組織が承認されていない生成AIツールの従業員利用を禁止しています。 たとえばサムスンは、機密性の高い内部情報の漏えいを懸念し、2023年にChatGPTや類似のAIチャットボットの使用を禁止した先駆けの企業です。 その後、複数の銀行や企業も同様の制限や警告を出しています。

それでも業界の専門家は、一律の禁止には強く反対しています。

禁止措置よりもガバナンスが優れた選択である理由

正当なサイバーセキュリティのリスクがあっても、業界アナリストは全面禁止より、予防策とガバナンス体制の構築を推奨しています。

禁止措置は効果が薄いことが多いです。 施行が難しいうえに、イノベーションや士気を損ない、AIの利用を隠れたものにしてしまうため、検出や管理がさらに困難になります。

あるITリーダーがガートナー ピア コミュニティの議論でAIツール禁止についてこう語りました: 「禁止は効果がありません。 ポリシーがなくても、禁止するとイノベーションを阻害し、社員や社会に組織のイメージを誤って伝えてしまいます。」

組織が取るべき適切な行動

組織がすぐに取り組める実用的なガバナンスの手順をご紹介します。

  1. AI利用に関する明確なポリシーを定めましょう
    承認するツール、データの管理方法、許容される利用事例、守るべき制限を具体的に決めます。 何が許されるのか、その理由までをはっきり示しましょう。
  2. 精査したAIツールのリストを維持する
    データのプライバシー、セキュリティ、及び規制順守の観点からツールを評価します。 あなたの従業員には、未検証のプラットフォームではなくこれらのツールを使うよう促しましょう。 例えば、ログ記録やデータ漏洩防止機能を備えたChatGPTのエンタープライズ版を利用し、社内プラットフォームに統合されたAIアシスタントを導入してください。
  3. 従業員を教育し、意識を高めましょう
    データ漏洩や誤生成コンテンツ、法令遵守の失敗まで、リスクを理解できるようスタッフを支援します。 誤用の多くは故意ではありません。
  4. 監視して、対応を変える
    不正アクセスを検出するために、倫理的かつ法的に適合した監視を活用しましょう。 罰するよりも、教育をもって対応してください。 AIの能力変化に合わせて、ポリシーを常に見直し、進化させましょう。

もうすぐ公開: シャドウAI管理を支援するF5の技術

テクノロジーでスケーラブルな解決策を実現できますか? もちろん、できます。

F5は本日、AIワークロードを保護するためのデータ漏洩検知と防止を発表しました。今後数か月で、多くのAI APIやSaaSプラットフォームの標準設定である暗号化チャネルにおけるAIツールの不正使用を含むシャドーAIリスクを、組織が包括的に軽減できる強力な新機能を展開する予定です。

今後の発表をぜひご期待ください。 最新のF5 AIニュースはAccelerate AIのウェブページで随時ご確認いただけます。

GARTNERは、米国および各国におけるGartner, Inc.および/またはその関連会社の登録商標およびサービス マークであり、許可を得てここに使用されています。無断複写・転載を禁じます。

1ガートナー、マーベリックリサーチ: CISOは役割を進化させなければ、いずれ不要になる—2025年6月19日