Au cours de la dernière décennie, NGINX Open Source est devenu l’un des serveurs web les plus utilisés au monde et une solution de distribution d’applications leader sur le marché. Nous avons aidé à équilibrer la charge et à faire office de proxy inverse pour tout, des petites startups et projets de recherche universitaire aux plus grandes applications web mondiales.
Tout comme il est devenu la référence pour la livraison d’applications, NGINX s’impose discrètement comme un élément clé dans la formation et la mise en service des applications d’IA. Les principaux frameworks, kits d’outils, bibliothèques et plateformes d’IA—comme Intel OpenVINO Model Server, NVIDIA Morpheus, Meta vLLM, NVIDIA Triton et d’autres—intègrent nativement des configurations pour F5 NGINX Plus (et NGINX Open Source) afin de gérer le proxy gRPC/HTTP, la terminaison SSL/TLS, l’équilibrage de charge avec prise en compte de l’état des services et la reconfiguration dynamique dès l’installation. De nombreux services et solutions IA fonctionnant sur des clusters Kubernetes privilégient le contrôleur d’ingress F5 NGINX pour gérer le trafic entrant et sortant des clusters d’IA, que ce soit pour l’entraînement ou l’inférence des modèles. Si vous grattez un peu, vous constaterez que vous le trouverez presque partout où l’IA est présente.
Dans de nombreux cas d’usage de l’IA, NGINX joue un rôle essentiel dans la pile IA. Que vous affiniez des modèles de base, diffusiez des tokens issus de LLM ou routiez des requêtes vers des points de détection d’anomalies en temps réel, il y a de fortes chances que NGINX intervienne dans le chemin des données.
NGINX figure parmi les options d’ingress par défaut pour de nombreuses plateformes, outils et services gérés AIOps majeurs.
Cadre d'intelligence artificielle | Comment vous utilisez NGINX |
Bénéfice concret |
---|---|---|
Intel OpenVINO Model Serve | F5 et Intel présentent en démonstration le déploiement de fragments de modèles derrière NGINX Plus (YouTube) | Une passerelle peut acheminer vers des back-ends CPU, GPU ou VPU. |
NVIDIA Triton | Le chart Helm installe Triton avec NGINX Plus Ingress pour offrir un accès gRPC (GitHub) | Le multiplexage HTTP/2 optimise l'utilisation du GPU. |
NVIDIA Morpheus | Le guide « Comment je l’ai fait » sécurise Morpheus avec NGINX Plus Ingress (Communauté F5) | Déchargement TLS et Advanced WAF en tête d’une détection de sécurité en temps réel. |
NVIDIA (XLIO) | Guide de déploiement de NGINX avec NVIDIA Accelerated IO (XLIO) (docs.nvidia.com) | Nous améliorons le déchargement TLS et optimisons les performances, avec des instructions de compilation intégrant la prise en charge d'OpenSSL ainsi que des fichiers d'exemple. |
Meta vLLM | Les documents officiels expliquent comment répartir plusieurs instances vLLM via NGINX (vLLM). | Nous assurons une mise à l'échelle horizontale rapide des points de terminaison de génération de texte. |
Les équipes MLOps adoptent les produits NGINX pour les mêmes raisons que celles qui gèrent les microservices et les API, éléments essentiels aux déploiements d'IA. NGINX est léger, modulaire, portable et gère des volumes élevés de jetons dans de nombreux environnements. En tant que développeur IA ou ingénieur en machine learning, vous pouvez déployer NGINX en intégrant une image de conteneur configurée par votre plateforme ou votre équipe MLOps dans vos recettes d'IA standards. NGINX fonctionne avec l’accélération matérielle sur la plupart des plateformes et architectures processeur courantes.
Les composants d’IA intégrant NGINX comme option par défaut couvrent tous les aspects de l’infrastructure IA, de la planification bas niveau des GPU à la diffusion de modèles, à l’orchestration des déploiements et à la gouvernance d’entreprise haut de gamme. Ils illustrent ensemble comment NGINX vous aide à routez le trafic vers les points d’inférence de manière sécurisée, à déployer efficacement des modèles évolutifs, à gérer l’accès multi-locataire aux clusters et à appliquer des règles opérationnelles strictes sur le contrôle des versions, l’audit et la conformité réglementaire.
Ces plateformes et outils couvrent ensemble l’ensemble de l’infrastructure IA : de la gestion bas niveau des GPU à la diffusion avancée de modèles, l’orchestration des déploiements et la gouvernance d’entreprise rigoureuse. Ils illustrent concrètement comment NGINX sécurise le routage du trafic vers les points d’inférence, facilite une livraison efficace et scalable des modèles, gère l’accès multi-tenant aux clusters, et applique des règles opérationnelles strictes sur le contrôle des versions, l’audit et la conformité réglementaire. Cette liste ne cesse de s’allonger, et nous sommes enthousiastes à l’idée de voir comment la nouvelle génération d’entreprises spécialisées en IA fera évoluer ses solutions avec NGINX.
Bénéficiez d’un accompagnement pour faire évoluer votre IA avec F5 NGINX One.