プレスリリース

F5、NVIDIAと提携し、急速に進化するAI環境に対応するパフォーマンス、マルチテナント、セキュリティ機能を拡張

2025年6月11日発行
連絡先

ダン・ソレンセン
F5
(650)228-4842
ソレンセン@f5.com

ホリー・ランカスター
私たちは。 コミュニケーション
(415)547-7054
hluka@we-worldwide.com

Sesterceの検証は、F5とNVIDIAの共同イノベーションを強調し、顧客がAIファーストのapplication配信の価値を享受できるよう支援します。

パリ  F5(NASDAQ: あらゆるアプリと API の提供とセキュリティ保護で世界をリードする F5 のクラウド インフラストラクチャ ソリューション プロバイダーである FFIV は本日、顧客である Sesterce の検証導入により強化された、NVIDIA BlueField-3 DPUNVIDIA DOCA ソフトウェア フレームワークで高速化されたF5 BIG-IP Next for Kubernetesの新機能を発表しました。 Sesterce は、加速コンピューティングと人工知能のニーズを満たすように設計された次世代インフラストラクチャとソブリン AI を専門とするヨーロッパの大手オペレーターです。

F5application配信およびセキュリティ プラットフォームを拡張し、NVIDIA BlueField-3 DPU 上でネイティブに実行される BIG-IP Next for Kubernetes は、大規模な AI インフラストラクチャに高性能なトラフィック管理とセキュリティを提供し、AIapplicationsの効率、制御、パフォーマンスを向上させます。 今年初めの一般提供開始とともに発表された魅力的なパフォーマンス上の利点と並行して、Sesterce は、次の領域を含むいくつかの主要機能にわたって F5 と NVIDIA ソリューションの検証を完了しました。

- クラウドグレードの期待に応えるためにパフォーマンス、マルチテナント、セキュリティを強化し、当初は GPU 使用率が 20% 向上しました。

- NVIDIA Dynamoおよび KV Cache Managerとの統合により、大規模言語モデル (LLM) 推論システムの推論のレイテンシを削減し、GPU およびメモリ リソースを最適化します。

- BlueField DPU 上のスマート LLM ルーティングは、複数のモデルを必要とするワークロードに対してNVIDIA NIMマイクロサービスで効率的に実行され、利用可能なすべてのモデルの中で最高のものを顧客に提供します。

- リバース プロキシ機能や、よりスケーラブルで安全な LLM の保護を含むモデル コンテキスト プロトコル (MCP) の拡張とセキュリティ保護により、顧客は MCP サーバーのパワーを迅速かつ安全に活用できるようになります。

- 強力なF5 iRules機能による強力なデータ プログラミング機能により、AIapplicationsと進化するセキュリティ要件をサポートするための迅速なカスタマイズが可能になります。

「F5とNVIDIAの統合は、テストを実施する前から魅力的でした」とSesterceのCEO兼共同創設者であるYoussef El Manssouri氏は述べています。 「私たちの結果は、AI 環境における大容量 Kubernetes イングレスおよびエグレスを使用した F5 の動的ロード バランシングの利点を強調しています。 このアプローチにより、トラフィックをより効率的に分散し、GPU の使用を最適化できると同時に、お客様に独自の付加価値を提供できるようになります。 F5 が、強化されたマルチテナント機能を含む NVIDIA のユースケースの増加をサポートしていることを嬉しく思っており、次世代 AI インフラストラクチャのサポートにおいて両社間のさらなるイノベーションが実現することを期待しています。」

新しいソリューション機能の主な特徴は次のとおりです。

  • BIG-IP Next for Kubernetes による LLM ルーティングと動的負荷分散

この共同ソリューションにより、単純な AI 関連タスクを、より安価で軽量な LLM にルーティングして生成 AI をサポートしながら、複雑なクエリ用に高度なモデルを予約することができます。 このレベルのカスタマイズ可能なインテリジェンスにより、ルーティング機能はドメイン固有の LLM を活用できるようになり、出力品質が向上し、顧客エクスペリエンスが大幅に強化されます。 F5 の高度なトラフィック管理により、クエリが最も適切な LLM に送信され、レイテンシが短縮され、最初のトークンまでの時間が短縮されます。

「企業は高度な AI エクスペリエンスを強化するために複数の LLM を導入することが増えていますが、LLM トラフィックのルーティングと分類には多くの計算負荷がかかり、パフォーマンスとユーザー エクスペリエンスが低下する可能性があります」と、F5 の最高イノベーション責任者である Kunal Anand 氏は述べています。 「NVIDIA BlueField-3 DPU 上でルーティング ロジックを直接プログラミングすることにより、F5 BIG-IP Next for Kubernetes は、LLM トラフィックの配信とセキュリティ保護のための最も効率的なアプローチとなります。 これはほんの始まりに過ぎません。 当社のプラットフォームは AI インフラストラクチャの新たな可能性を切り開きます。エンタープライズ AI が拡大し続ける中で、NVIDIA との共同イノベーションを深められることに興奮しています。」

  • NVIDIA Dynamo と KV キャッシュの統合による大規模な分散 AI 推論向け GPU の最適化

今年初めには、大規模な分散環境で生成 AI と推論モデルを展開するための補足フレームワークを提供するNVIDIA Dynamo が導入されました。 NVIDIA Dynamo は、スケジューリング、ルーティング、メモリ管理などのタスクを調整して、動的なワークロードでもシームレスな操作を保証することで、分散環境での AI 推論実行の複雑さを合理化します。 特定の操作を CPU から BlueField DPU にオフロードすることは、F5 と NVIDIA を組み合わせたソリューションの主な利点の 1 つです。 F5 を使用すると、Dynamo KV キャッシュ マネージャー機能は、キー値 (KV) キャッシュを使用して容量に基づいてリクエストをインテリジェントにルーティングし、リソースを大量に消費する再計算を必要とせずに、以前の操作からの情報を保持することでプロセスを高速化することで、生成 AI のユースケースを加速できます。 インフラストラクチャの観点から見ると、KV キャッシュ データを保存および再利用する組織は、この目的で GPU メモリを使用する場合のわずかなコストでそれを実行できます。

「NVIDIA BlueField-3 DPUで高速化されたBIG-IP Next for Kubernetesにより、企業やサービスプロバイダーは、AIファクトリーへのトラフィックを効率的にルーティングしてGPU効率を最適化し、データ取り込み、モデルトレーニング、推論、RAG、エージェントAI用のAIトラフィックを高速化するための単一の制御ポイントを得ることができます」と、NVIDIAのAIネットワーキングおよびセキュリティソリューション、エコシステムおよびマーケティング担当シニアディレクターのアッシュ・バルガット氏は述べています。 「さらに、F5 のマルチテナントと iRules によるプログラミング性の向上のサポートにより、NVIDIA Dynamo Distributed KV Cache Manager のサポートなど、継続的な統合と機能追加に適したプラットフォームが引き続き提供されます。」

  • F5とNVIDIAによるMCPサーバーの保護強化

モデルコンテキストプロトコル(MCP)は、Anthropicが開発したオープンプロトコルで、applicationsがLLMにコンテキストを提供する方法を標準化します。F5とNVIDIAの統合ソリューションをMCPサーバーの前面に導入することで、F5テクノロジーをリバースプロキシとして機能させ、MCPソリューションとそれらがサポートするLLMのセキュリティ機能を強化します。 さらに、F5 iRules によって実現される完全なデータ プログラマビリティにより、急速に進化する AI プロトコル要件への迅速な適応と回復力が促進されるほか、新たなサイバーセキュリティのリスクに対する保護も強化されます。

「エージェント AI を実装する組織は、LLM のセキュリティとパフォーマンスを向上させるために、MCP の導入にますます依存するようになっています」と、World Wide Technology のグローバル サービス プロバイダー担当 SVP の Greg Schoeny 氏は述べています。 「F5 と NVIDIA は、高度なトラフィック管理とセキュリティを広範な Kubernetes 環境に導入することで、プログラマビリティと自動化機能に加えて、現在業界のどこにも見られない統合 AI 機能セットを提供しています。」

NVIDIA BlueField-3 DPU に導入された F5 BIG-IP Next for Kubernetes は現在一般提供中です。 さらなるテクノロジの詳細と導入のメリットについては、 www.f5.comをご覧ください。また、今週のVivaTech 2025イベントの一環として開催される NVIDIA GTC Paris の参加企業もぜひご覧ください。 さらに詳しい情報については、 F5 の関連ブログでもご覧いただけます。

セステルセについて

2018 年に設立された Sesterce は、高性能コンピューティングと人工知能インフラストラクチャを専門とするヨーロッパの大手オペレーターです。 同社はバリューチェーンを完全に管理し、スタートアップ企業、大企業、学術機関のニーズに合わせた柔軟で独立した持続可能なソリューションを提供しています。 Sesterce は、倫理的および環境的基準を遵守しながらイノベーターが規模を拡大できるように支援することで、AI インフラストラクチャにおけるヨーロッパのリーダーになることを目指しています。

この精神に基づき、Sesterce はインフラストラクチャ上に「AI ネイティブ」なサービス レイヤーも提供しています。これは、異種のリアルタイム ストリームを取り込んで変換する高度なデータ準備機能を提供し、大規模モデルを開発または導入する組織に超大規模言語モデル (VLLM) 専用のサポートを提供し、AI ネイティブの新興企業と既存企業の両方向けに設計されたモジュール式のビジネス インテリジェンス ソリューションを提供します。 さらに、Sesterce は、欧州の主権と機密性基準に完全に準拠したプライベート AI と推論環境により、エンドツーエンドのプライバシーと制御を保証します。

F5 について

F5, Inc.(ナスダック: F5(F5application・フォー・エフ・アイ・ビー・エム)は、あらゆるアプリケーションの配信とセキュリティ保護を提供するグローバルリーダーです。30年にわたる専門知識を基盤に、F5は業界最高峰のプラットフォームであるF5アプリケーション配信およびセキュリティプラットフォーム(ADSP)を構築しました。このプラットフォームは、オンプレミス、クラウド、エッジ、ハイブリッド、マルチクラウド環境など、あらゆる場所において、あらゆるアプリケーションとAPIを配信し、セキュリティ保護します。 F5 は、世界最大かつ最先端の組織と提携し、革新を続け、高速で可用性が高く、安全なデジタル エクスペリエンスを提供することに尽力しています。 私たちは共に、お互いの成長を助け、より良いデジタル世界を実現します。

詳細については、 f5.comをご覧ください。
F5 Labsの脅威研究については、 f5.com/labsをご覧ください。
F5、当社のパートナー、テクノロジーに関する詳細については、以下をフォローしてください。 ブログ| LinkedIn | X | YouTube | Instagram | Facebook

F5、BIG-IP、BIG-IP Next、および iRules は、米国およびその他の国における F5, Inc. の商標、サービス マーク、または商号です。 ここに記載されているその他すべての製品名および会社名は、それぞれの所有者の商標である場合があります。

# # #

このプレスリリースには、リスクや不確実性を伴う将来の出来事や将来の財務実績に関する将来予想に関する記述が含まれている場合があります。 このような記述は、「かもしれない」、「だろう」、「すべきだ」、「期待する」、「計画する」、「予想する」、「信じる」、「見積もる」、「予測する」、「潜在的な」、「継続する」などの用語、またはこれらの用語や類似の用語の否定形によって識別できます。 これらの記述は予測に過ぎず、実際の結果は、SEC への提出書類で特定されたものを含むさまざまな要因に基づいて、これらの記述で予測されたものと大幅に異なる可能性があります。