ブログ

F5はCalypsoAIの買収を完了し、F5 AI GuardrailsとF5 AI Red Teamを立ち上げます

ショーン・ワームケ サムネイル
ショーン・ワームケ
2025年9月29日公開

すべての新技術はチャンスとリスクを同時に伴います。 AIも例外ではなく、複雑なワークフローの自動化、予測分析による意思決定の支援、リアルな合成メディアの創出といった革新的な成果をもたらします。 一方でデータ漏洩、モデルの悪用、偏りの増幅といった課題も生み出します。 AIの進化が急速に進む中で、セキュリティ対策が追いつかず、組織は見過ごされがちなリスクや予測不能な脅威にさらされています。 技術の発展が防御策を上回ると、セキュリティの責任は開発者から実務者へと移っていきます。

F5 は数十年にわたり、変わりゆくデジタル環境の中で組織を支え、イノベーションの推進、安定した接続の確保、そして機密システムの安全を守ってきました。 AIが技術革新の先頭に立つ今、私たちはユーザーの保護、データの安全確保、巧妙な脅威への対抗、そして倫理的なAIガバナンスを実現するために、単なる導入にとどまらず柔軟に対応するセキュリティ対策を求めています。 AIの利点を最大限に活かそうとする組織には、ユーザー全員と高速かつ大規模に流れるデータを守り、あらゆる角度から悪意ある行為を防ぐための適応型ガードレールが必要です。

F5 AI Guardrailsをご紹介します

F5は本日、AIセキュリティの最先端を行く先駆者であるCalypsoAIの買収を完了し、デジタル道路のセキュリティ強化に向けた最新機能を導入したことを発表いたします。 F5 AI ガードレール - AI モデルとエージェントのための包括的なランタイム セキュリティ。 この新たな機能の追加により、F5 は、AI データを保護し、敵対的な脅威に対抗し、すべてのインタラクションにわたって責任ある AI ガバナンスを確保する、モデルに依存しないソリューションを提供できるようになりました。 AI 環境は、何百万もの独自モデルやオープンソース モデル、そしてそれらの微調整されたバリエーションによって絶えず進化しています。 AI セキュリティの現在と未来は、少数のモノリシック LLM に限定されるのではなく、単一のモデル プロバイダーから独立した一貫したプライバシーとセキュリティを必要とする、独自仕様およびパブリック AI イノベーションのカスケードです。 各モデルにはそれぞれ異なるリスクのポートフォリオがあるため、AI の相互作用が許容範囲を超えないようにするために、各モデルごとにカスタマイズされたガードレールが必要です。

F5 AIレッドチームは、明確な脅威も複雑な脅威も見逃しません

見えないものは守れません。 物理的にもデジタルでも、あらゆる道にはガードレールが求められる箇所が数え切れないほど存在します。 事故多発地点や交通量の多い交差点が優先されるのは当然ですが、より戦略的で予防的な対応が必要です。 F5 AI Red Teamは空から見守る目として、ラッシュアワーの交通渋滞や最悪のドライバーの振る舞い、そこから明らかになる脆弱性まで、現実の混乱をシミュレートしながら全体像を分析します。 AI Red Teamは事故が起こりやすい箇所だけでなく、被害が最も大きくなる場所も特定し、その上でガードレールの設置場所と緊急度を明確に示します。

私たちは AI レッドチームを導入し、多数の自律エージェントを連携させて何千もの攻撃パターンを模擬し、AI システムの脆弱性を徹底的に探ります。 このエージェントの群れは、よく知られた AI の脆弱性だけでなく、セキュリティチームが時間を割けない、最も深刻で隠れた攻撃手法の発見を加速します。 さらに、その模擬攻撃手法は、月に 1 万件以上の新しい攻撃パターンで定期的に更新される、卓越した AI 脆弱性データベースに基づいています。 こうした洞察はそれ自体価値がありますが、数回のクリックでチームはすべての情報を即座に有効な AI ガードレールに変換できます。

AIのブラックボックスを明らかにする

AI 脅威の「内容」と「場所」は、セキュリティ体制を維持するための基本的な要件ですが、体制を改善するには、「方法」と「理由」を理解することが不可欠です。 AI システムの不透明な「ブラック ボックス」の性質により、歴史的にこれは困難であり、まったく新しいアプローチが必要とされていました。 AI がガードレールにぶつかり、プロンプトがブロックされたと仮定します。 静的キーワードや正規表現フィルタリングなどの従来の方法では、ユーザー、日時、トリガーはわかりますが、何が起こったかの全体像はわかりません。 重要なのは、F5 AI ガードレールと AI レッド チームが説明可能性を重視し、AI システムが特定の決定を下した理由や特定のアクションを実行した理由を顧客が理解できるようにすることです。

Agentic Fingerprints や Outcome Analysis といった高度な機能により、チームは AI のあらゆるやり取りをきめ細かく把握できるようになりました。プロンプトがなぜ許可されたのか、ブロックされたのか、その理由や判断に至る経緯も詳しく理解できます。 このきめ細かさはセキュリティチームの判断に不可欠であると同時に、いつでも確認できる監査記録や規制フレームワーク対応のテンプレートを利用することで、コンプライアンスの達成を大幅に簡素化します。 

今のAI環境を守り、これからのAIを見据えましょう

AIは消え去ることなく、その成長も止まりません。 MCPサーバー、A2Aプロトコル、検索強化生成(RAG)、そして次に登場するあらゆる革新がAIの力を世界規模で加速させていきます。 しかし、AIの効果を高める際に、AIのセキュリティを犠牲にしてはなりません。 F5はアプリケーション層で卓越性を築き、組織がデジタルの道をより速く、より賢く進めるよう支援してきました。AI時代においても、それを変える理由はありません。 F5 AIガードレールとAIレッドチームで、私たちはインテリジェントなスピードを守りながら、AIモデル、エージェント、接続されたデータに対する包括的なセキュリティを提供します。

1年後にAIの状況がどう変わるか、正確に予測することはできません。 F5では、次に起こることに備える最善策は、進むべき道を押し付けるのではなく、あなたのニーズに応じて柔軟に対応できるツールを提供することだと考えています。 AIガードレールAIレッドチーム、そしてF5 Application Delivery and Security Platform(ADSP)の統合パワーによって、あらゆる環境、クラウド、AIモデルに自在に適応できるよう支援します。未来のニーズを最もよく知るのは私たちではなく、あなた自身です。