過去10年間、NGINX Open Sourceは世界で最も広く使われているWebサーバーの一つであり、市場シェアではトップクラスのアプリケーション デリバリソリューションです。 小さなスタートアップや学術研究プロジェクトから、世界最大級のWebアプリケーションに至るまで、負荷分散やリバースプロキシとして支えています。
アプリケーション配信の定番となったように、NGINXはAIアプリケーションのトレーニングと提供の重要な要所として静かにその役割を果たしています。 Intel OpenVINO Model Server、NVIDIA Morpheus、MetaのvLLM、NVIDIA Tritonなど主要なAIフレームワーク、ツールキット、ライブラリ、プラットフォームは、F5 NGINX Plus(およびNGINXオープンソース)をネイティブ設定として備え、gRPC/HTTPプロキシング、SSL/TLS終了、ヘルスチェックを考慮した負荷分散、動的な再構成を即座に対応できます。 Kubernetesクラスター上で展開される多くのAIサービスやソリューションが、F5 NGINX Ingress Controllerを、モデルのトレーニングや推論でのAIクラスターへの入出力トラフィック管理の推奨先として選んでいます。 その実態を探れば、AIが関わるほぼあらゆる場所でNGINXが動いていることが分かるでしょう。
幅広いAIの活用シーンにおいて、NGINXはAIスタックの重要な役割を担っています。 基盤モデルの調整からLLMのトークン出力ストリーミング、リアルタイム異常検出エンドポイントへのリクエストルーティングまで、NGINXがすでにデータパスに組み込まれていることでしょう。
NGINX は、多くの主要な AIOps スタック、ツール、マネージドサービスで標準の Ingress として広く採用されています。
AIフレームワーク | NGINXの活用方法 |
実際の利点 |
---|---|---|
Intel OpenVINO モデルサーブ | F5とIntelによるデモで、NGINX Plusの背後にモデルシャードを展開します(YouTube) | 1 つのゲートウェイから CPU、GPU、VPU のいずれかのバックエンドにルーティングできます。 |
NVIDIA Triton | Helm チャートは、gRPC アクセス用に NGINX Plus Ingressを備えたTriton をインストールします ( GitHub ) | HTTP/2の多重化によって GPUの利用率を常に高く保ちます。 |
NVIDIA Morpheus | 「How I Did It」ガイドでは、NGINX Plus Ingressを使ってMorpheusを安全に運用する方法をご紹介します(F5コミュニティ) | リアルタイムのセキュリティ推論の前面でTLSオフロードと適応型WAFを活用します。 |
NVIDIA(XLIO) | NVIDIA Accelerated IO(XLIO)を活用したNGINX導入ガイド(docs.nvidia.com) | OpenSSLサポート付きのビルド手順とサンプルファイルを提供し、TLSオフロードとパフォーマンスチューニングを強化しました。 |
Meta vLLM | 公式ドキュメントでは、NGINXを使って複数のvLLMインスタンスを効果的に負荷分散する方法をご案内しています。 | テキスト生成エンドポイントを素早く水平スケールできます。 |
MLOpsチームがNGINX製品を導入できるのは、マイクロサービスやAPIを管理するチームが採用しているのと同じ理由です。これらはAI展開に不可欠な要素で、NGINXは軽量でモジュール式、持ち運びが簡単で、多様な環境で大量のトークンを効率的に処理します。 AI開発者や機械学習エンジニアは、共通のAIレシピを立ち上げる過程で、プラットフォームまたはMLOpsチームが設定したコンテナイメージを利用してNGINXを展開できます。 NGINXは、主要なプラットフォームとプロセッサアーキテクチャの多くでハードウェアアクセラレーションと連携します。
NGINXをデフォルトオプションに挙げるAIコンポーネントは、低レベルのGPUスケジューリングから高レベルのモデルサービング、導入オーケストレーション、企業向けガバナンスに至るまで、AIインフラ全体にわたります。 これらは、推論エンドポイントへのトラフィックを安全にルーティングし、スケーラブルで効率的なモデル配信を実現し、マルチテナントクラスタのアクセス管理を行い、バージョン管理や監査、規制遵守に関する運用ポリシーを確実に適用するなど、NGINXが幅広い用途を支えていることを示しています。
これらのプラットフォームとツールは、低レベルのGPUスケジューリングから、高レベルのモデル提供、導入のオーケストレーション、エンタープライズ対応のガバナンスまで、AIインフラの全領域を網羅しています。 NGINXは推論エンドポイントへのトラフィックを安全にルーティングし、スケーラブルかつ効率的なモデルの提供を可能にし、マルチテナントクラスタのアクセス管理をしっかり行いながら、バージョン管理、監査、規制コンプライアンスの運用ポリシーも適切に実施して、幅広いユースケースを支えています。 ラインナップは今も広がっており、次世代のAIネイティブ企業がNGINXで何を創り出すのか、私たちはとても楽しみにしています。
AIのスケールアップをF5 NGINX Oneがサポートします。