BLOG

F5 BIG-IP Next für Kubernetes auf NVIDIA BlueField-3-DPUs ist ab sofort verfügbar.

Ahmed Guetari Miniaturbild
Ahmed Guetari
Veröffentlicht am 25. April 2025

F5 kündigt heute die allgemeine Verfügbarkeit von F5 BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs an und verbessert damit die Ressourcenverwaltung im AI Factory-Cloud-Rechenzentrum, während es optimale KI-Anwendungsergebnisse erzielt. Die integrierte Lösung steigert die Effizienz der Infrastruktur und bietet leistungsstarkes Netzwerk, Sicherheit und Datenverkehrsverwaltung, um innovative Anwendungen wie GPU as a Service (GPUaaS) und Inferenzprozesse zu unterstützen.

Mit der Integration von BIG-IP Next für Kubernetes und NVIDIA BlueField-3 DPUs begegnen wir wichtigen Herausforderungen, die Unternehmen bei der Umsetzung von KI-Infrastrukturen in Cloud-Größe bewältigen müssen. Große KI-Workloads erfordern enorme Datenverarbeitung und setzen leistungsstarke Rechenressourcen voraus, damit Sie in Echtzeit analysieren, interpretieren und Erkenntnisse gewinnen können. Das belastet bestehende Netzwerkinfrastrukturen stark, kann Ihre Leistung einschränken und führt zu ineffizienter Verarbeitung und Verzögerungen bei der Inferenz.

Leistung in branchenprägenden Umgebungen

F5, NVIDIA und SoftBank haben kürzlich bei einer Sitzung auf der NVIDIA GTC 2025 zusammengearbeitet, um den Wert einer kombinierten Lösung zu demonstrieren. Während der Sitzung teilte SoftBank bahnbrechende Erkenntnisse darüber, wie Unternehmen Cloud-native KI-Workloads mit einem DPU-beschleunigten Service-Proxy für Kubernetes beschleunigen können. In der Sitzung wurden die Berechnungen und Leistungskennzahlen von SoftBank aus ihrem jüngsten Proof-of-Concept für F5 BIG-IP Next für Kubernetes vorgestellt, das auf NVIDIA BlueField-3 DPUs bereitgestellt wird. SoftBank erzielte eine Steigerung des HTTP-Durchsatzes um 18 % (77 Gbit/s), eine 11-fache Verbesserung der Time-to-First-Byte (TTFB) und eine erstaunliche Steigerung der Netzwerkenergieeffizienz um das 190-fache. Diese Ergebnisse unterstreichen das transformative Potenzial der DPU-Beschleunigung für moderne Cloud-native Umgebungen, die einen verbesserten Token-Durchsatz und ein verbessertes Benutzererlebnis bei der KI-Inferenz ermöglichen.

Weniger Komplexität, optimierte Leistung und erhöhte Sicherheit

NVIDIA BlueField-3 DPUs sind für die anspruchsvollsten Infrastruktur-Workloads konzipiert , von beschleunigter KI und drahtlosen 5G-Netzwerken bis hin zu hybride Cloud und Hochleistungsrechnen. Die kombinierte Lösung nutzt die F5 Application Delivery and Security Platform, um den Datenverkehr in und aus KI-Infrastrukturen zu beschleunigen, zu sichern und zu optimieren und so die effiziente Verarbeitung großer KI-Workloads erheblich zu verbessern. Durch die Bereitstellung eines optimierten Verkehrsmanagements ermöglicht die Lösung eine höhere Datenaufnahmeleistung und Serverauslastung während der KI-Inferenz, was zu einem besseren Erlebnis für Benutzer von KI-Apps führt.

BIG-IP Next für Kubernetes reduziert die Komplexität der Integration mehrerer Elemente der KI-Infrastruktur eines Unternehmens erheblich, indem es Netzwerk-, Sicherheits-, Verkehrsmanagement- und Lastausgleichsfunktionen vereinheitlicht, um umfassende Transparenz in Multicloud-Umgebungen mit verbesserter Beobachtbarkeit für KI-Workloads zu bieten. Die Lösung unterstützt wichtige Sicherheitsfunktionen für Zero-Trust-Architekturen, API-Schutz, Intrusion Prevention, Verschlüsselung und Zertifikatsverwaltung. Mit der allgemeinen Verfügbarkeit wurden hardwarebeschleunigte Abwehrmaßnahmen gegen Distributed Denial of Service (DDoS) sowie Edge-Firewall-Funktionen hinzugefügt, die einen schnelleren und effizienteren Cyberschutz ermöglichen. Die Lösung automatisiert außerdem die Erkennung und Sicherung von Trainings- und Inferenzendpunkten für KI-Modelle und ermöglicht es Unternehmen, KI- Applications vor gezielten Bedrohungen zu isolieren und gleichzeitig die Datenintegrität und -souveränität zu stärken.

Darüber hinaus ermöglicht die Integration von BIG-IP Next für Kubernetes und NVIDIA BlueField-3 DPUs eine Multi-Tenant-Architektur, die mehrere Benutzer sicher auf denselben KI-Clustern hosten kann, während ihre KI-Workloads, Daten und ihr Datenverkehr getrennt bleiben.

Überzeugende neue Anwendungsfälle, die Kunden bei der Nutzung von KI unterstützen

Gemeinsam verbessern F5 und NVIDIA nicht nur das Infrastrukturmanagement und die Effizienz, sondern ermöglichen auch schnellere, reaktionsfähigere KI-Inferenzen für neue Anwendungsfälle, wie beispielsweise:

  • GPU as a Service (GPUaaS) bietet Ihnen cloudbasierten, bedarfsgesteuerten Zugriff auf GPUs für vielfältige Rechenaufgaben wie KI-Modelltraining, wissenschaftliche Simulationen und Rendering. Wir ermöglichen es Ihnen, GPU-Rechenressourcen von Cloud-Anbietern entweder im Pay-as-you-go-Verfahren oder per Abonnement zu mieten. Sie bezahlen nur für die GPUs, die Sie tatsächlich nutzen, und optimieren so den GPU-Recheneinsatz pro investiertem Dollar. Die Integration von BIG-IP Next für Kubernetes mit NVIDIA BlueField-3 DPUs sorgt für sichere Mehrmandantenfähigkeit mit feiner Tenant-Isolierung – ein entscheidender Faktor bei GPUaaS-Szenarien. Dadurch können mehrere Nutzer oder Organisationen GPU-Ressourcen sicher und effizient teilen, während sie parallel ihre Workloads ausführen. Indem wir Ihren GPU-Dienst in mehrere geschützte Instanzen aufteilen, trennt die granulare Multi-Tenancy Mandanten und Workloads strikt voneinander ab, um Datenlecks und Sicherheitsrisiken zu vermeiden. Gleichzeitig erlaubt das eine flexible Ressourcenverteilung, sodass jede Anwendung genau die GPU- und Netzwerkleistung erhält, die sie benötigt, ohne dass Sie unnötig Ressourcen überprovisionieren.
  • Inferenzdienste, bei denen spezialisierte, cloudbasierte KI-Plattformen optimierte Umgebungen bereitstellen, um effizient Inferenz auf trainierten KI-Modellen durchzuführen. Im Gegensatz zu GPUaaS, das rohe GPU-Leistung bereitstellt, sind Inferenzdienste auf eine effiziente Modellbereitstellung spezialisiert. Sie kommen zum Beispiel beim Betreiben von Chatbots, der Umsetzung von Betrugsschutz, bei Forschungsarbeiten und ähnlichen KI-gesteuerten Anwendungen zum Einsatz. Inferenzdienste verbessern auch die Bilderkennung, unterstützen autonomes Fahren und ermöglichen natürliche Sprachverarbeitung für Sprachassistenten oder Sentimentanalysen. BIG-IP Next für Kubernetes und NVIDIA BlueField-3 DPUs maximieren die Inferenzleistung und verringern die End-to-End-Latenz durch paralleles Ausführen mehrerer Modelle. Die auf der Kombination von F5 und NVIDIA basierenden Inferenzdienste passen Serverressourcen zudem dynamisch an, um wechselnden Arbeitslasten und Anforderungen gerecht zu werden.

Sowohl für GPUaaS als auch für Inferenzdienste ist die granulare Beobachtbarkeit eine entscheidende Voraussetzung. BIG-IP Next für Kubernetes bietet eine zentralisierte und vollständig integrierte Ansicht, die umfassende Transparenz im gesamten KI-Ökosystem bietet, um Leistung und Ausfallsicherheit zu überwachen, mit der Möglichkeit, Sicherheitsfunktionen sofort anzuwenden, um den Datenschutz durchzusetzen, unberechtigter Zugriff zu verhindern und Anomalien zu isolieren.

Weitere Informationen finden Sie auf der Produktseite oder wenden Sie sich an Ihr F5-Account-Team, um BIG-IP Next für Kubernetes für die KI-Infrastruktur Ihres Unternehmens zu besprechen. Der Fokus von F5 auf KI hört hier nicht auf – entdecken Sie , wie F5 KI-Apps überall sichert und bereitstellt .