BLOG

Annonce de la disponibilité générale de F5 BIG-IP Next pour Kubernetes sur les processeurs de données NVIDIA BlueField-3

Ahmed Guetari Miniature
Ahmed Guetari
Publié le 25 avril 2025

F5 annonce aujourd’hui la disponibilité générale de F5 BIG-IP Next pour Kubernetes, déployé sur les DPU NVIDIA BlueField-3, optimisant la gestion des ressources du centre de données cloud de l’usine d’IA tout en garantissant des performances maximales pour les applications d’IA. La solution intégrée accroît l’efficacité de l’infrastructure et offre des performances élevées en mise en réseau, sécurité et gestion du trafic pour soutenir des cas d’usage innovants, notamment le GPU en tant que service (GPUaaS) et les capacités d’inférence.

En intégrant BIG-IP Next pour Kubernetes avec les DPU NVIDIA BlueField-3, vous relevez les défis majeurs que rencontrent les organisations pour déployer des infrastructures d'IA à l'échelle du cloud. Les charges de travail d'IA à grande échelle impliquent un traitement massif des données, nécessitant des ressources informatiques puissantes pour analyser, interpréter et extraire des informations en temps réel. Cela sollicite fortement l'infrastructure réseau traditionnelle, ce qui freine les performances et augmente les risques d'inefficacité dans le traitement et de retard dans les inférences.

Performance dans des environnements industriels déterminants

F5, NVIDIA et SoftBank ont récemment collaboré lors d'une session au NVIDIA GTC 2025 pour présenter la valeur d'une solution combinée. Au cours de la session, SoftBank a partagé des informations révolutionnaires sur la manière dont les organisations peuvent dynamiser les charges de travail d'IA natives du cloud avec un proxy de service accéléré par DPU pour Kubernetes . La session a présenté les calculs et les mesures de performance de SoftBank à partir de leur récente preuve de concept pour F5 BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3. SoftBank a obtenu une augmentation de 18 % du débit HTTP (77 Gbps), une amélioration de 11 fois du temps jusqu'au premier octet (TTFB) et une augmentation stupéfiante de 190 fois de l'efficacité énergétique du réseau. Ces résultats mettent en évidence le potentiel transformateur de l’accélération DPU pour les environnements cloud natifs modernes, entraînant un débit amélioré des jetons et des expériences utilisateur améliorées lors de l’inférence de l’IA.

Moins de complexité, performances optimisées et sécurité renforcée

Les DPU NVIDIA BlueField-3 sont conçus pour les charges de travail d'infrastructure les plus exigeantes, de l'IA accélérée et des réseaux sans fil 5G au cloud hybride et au calcul haute performance. La solution combinée s'appuie sur la plateforme de livraison et de sécurité application F5 pour accélérer, sécuriser et rationaliser le trafic de données entrant et sortant des infrastructures d'IA, améliorant ainsi considérablement le traitement efficace des charges de travail d'IA à grande échelle. En offrant une gestion optimisée du trafic, la solution permet de meilleures performances d'ingestion de données et une meilleure utilisation du serveur lors de l'inférence de l'IA, ce qui conduit à de meilleures expériences pour les utilisateurs d'applications d'IA.

BIG-IP Next pour Kubernetes simplifie considérablement la complexité de l'intégration de plusieurs éléments de l'infrastructure d'IA d'entreprise en unifiant les fonctions de mise en réseau, de sécurité, de gestion du trafic et d'équilibrage de charge pour fournir une visibilité complète sur les environnements multicloud, avec une observabilité accrue des charges de travail d'IA. La solution prend en charge les fonctionnalités de sécurité critiques pour les architectures Zero Trust, la protection des API, la prévention des intrusions, le cryptage et la gestion des certificats. Avec la disponibilité générale, l'atténuation des attaques par déni de service distribué (DDoS) accélérée par le matériel a été ajoutée, ainsi que des capacités de pare-feu de périphérie, favorisant une cyberprotection plus rapide et plus efficace. La solution automatise également la découverte et la sécurisation des points de terminaison de formation et d'inférence des modèles d'IA, permettant aux organisations d'isoler les applications d'IA des menaces ciblées tout en renforçant l'intégrité et la souveraineté des données.

De plus, l'intégration de BIG-IP Next pour Kubernetes et des DPU NVIDIA BlueField-3 permet une architecture multi-locataire qui peut héberger en toute sécurité plusieurs utilisateurs sur les mêmes clusters d'IA, tout en gardant leurs charges de travail d'IA, leurs données et leur trafic séparés.

De nouveaux cas d'utilisation convaincants pour aider les clients à adopter l'IA

Ensemble, F5 et NVIDIA améliorent non seulement la gestion et l'efficacité de l'infrastructure, mais permettent également une inférence d'IA plus rapide et plus réactive pour fournir des cas d'utilisation émergents, tels que :

  • GPU as a Service (GPUaaS) vous offre un accès cloud à la demande aux GPU pour diverses tâches informatiques, comme l'entraînement de modèles IA, les simulations scientifiques et le rendu. Ce service permet aux organisations de louer des ressources GPU auprès de fournisseurs cloud, soit en paiement à l’usage, soit via un abonnement, en ne payant que lors de l’utilisation et en optimisant leur investissement GPU. L’intégration de BIG-IP Next pour Kubernetes avec les DPU NVIDIA BlueField-3 garantit une multi-location sécurisée avec une isolation granulaire des locataires, indispensable au GPUaaS pour partager efficacement des GPU entre utilisateurs ou organisations tout en exécutant plusieurs charges en parallèle. En déployant le service GPU en plusieurs instances sécurisées, la multi-location granulaire protège chaque locataire et charge de travail pour éviter fuites de données et risques de sécurité. Elle permet aussi une allocation dynamique des ressources, assurant que chaque charge bénéficie des ressources GPU et réseau nécessaires sans gaspillage.
  • Services d'inférence, où des plateformes d’IA spécialisées basées sur le cloud fournissent des environnements optimisés pour exécuter efficacement l'inférence sur des modèles d'IA entraînés. Contrairement au GPUaaS, qui fournit uniquement la puissance brute des GPU, nous ajustons les services d'inférence pour faciliter un déploiement fluide des modèles. Nous utilisons ces services pour faire fonctionner des chatbots, implémenter la protection contre les fraudes, mener des recherches et réaliser d’autres tâches alimentées par l'IA. Nous appliquons également les services d'inférence pour améliorer la reconnaissance d’images, les scénarios de conduite autonome, ainsi que le traitement du langage naturel pour les assistants vocaux ou l’analyse des sentiments. BIG-IP Next pour Kubernetes et les DPU NVIDIA BlueField-3 maximisent les performances d'inférence et réduisent la latence globale en exécutant plusieurs modèles en parallèle. Les services d'inférence basés sur la solution conjointe F5 et NVIDIA adaptent en dynamique les ressources pour gérer les variations de charge et la demande.

Pour les services GPUaaS et d’inférence , l’observabilité granulaire est une exigence essentielle. BIG-IP Next pour Kubernetes fournit une vue centralisée et entièrement intégrée qui offre une visibilité riche sur l'ensemble de l'écosystème de l'IA pour surveiller les performances et la résilience, avec la possibilité d'appliquer instantanément des fonctionnalités de sécurité pour renforcer la confidentialité des données, empêcher accès non autorisé et isoler les anomalies.

Pour plus d'informations, explorez la page produit ou contactez votre équipe de compte F5 pour discuter de BIG-IP Next pour Kubernetes pour l'infrastructure d'IA de votre organisation. L'accent mis par F5 sur l'IA ne s'arrête pas là : découvrez comment F5 sécurise et fournit des applications d'IA partout .