F5 kündigt heute die allgemeine Verfügbarkeit von F5 BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs an und verbessert damit die Ressourcenverwaltung im AI Factory-Cloud-Rechenzentrum, während es optimale KI-Anwendungsergebnisse erzielt. Die integrierte Lösung steigert die Effizienz der Infrastruktur und bietet leistungsstarkes Netzwerk, Sicherheit und Datenverkehrsverwaltung, um innovative Anwendungen wie GPU as a Service (GPUaaS) und Inferenzprozesse zu unterstützen.
Mit der Integration von BIG-IP Next für Kubernetes und NVIDIA BlueField-3 DPUs begegnen wir wichtigen Herausforderungen, die Unternehmen bei der Umsetzung von KI-Infrastrukturen in Cloud-Größe bewältigen müssen. Große KI-Workloads erfordern enorme Datenverarbeitung und setzen leistungsstarke Rechenressourcen voraus, damit Sie in Echtzeit analysieren, interpretieren und Erkenntnisse gewinnen können. Das belastet bestehende Netzwerkinfrastrukturen stark, kann Ihre Leistung einschränken und führt zu ineffizienter Verarbeitung und Verzögerungen bei der Inferenz.
F5, NVIDIA und SoftBank haben kürzlich bei einer Sitzung auf der NVIDIA GTC 2025 zusammengearbeitet, um den Wert einer kombinierten Lösung zu demonstrieren. Während der Sitzung teilte SoftBank bahnbrechende Erkenntnisse darüber, wie Unternehmen Cloud-native KI-Workloads mit einem DPU-beschleunigten Service-Proxy für Kubernetes beschleunigen können. In der Sitzung wurden die Berechnungen und Leistungskennzahlen von SoftBank aus ihrem jüngsten Proof-of-Concept für F5 BIG-IP Next für Kubernetes vorgestellt, das auf NVIDIA BlueField-3 DPUs bereitgestellt wird. SoftBank erzielte eine Steigerung des HTTP-Durchsatzes um 18 % (77 Gbit/s), eine 11-fache Verbesserung der Time-to-First-Byte (TTFB) und eine erstaunliche Steigerung der Netzwerkenergieeffizienz um das 190-fache. Diese Ergebnisse unterstreichen das transformative Potenzial der DPU-Beschleunigung für moderne Cloud-native Umgebungen, die einen verbesserten Token-Durchsatz und ein verbessertes Benutzererlebnis bei der KI-Inferenz ermöglichen.
NVIDIA BlueField-3 DPUs sind für die anspruchsvollsten Infrastruktur-Workloads konzipiert , von beschleunigter KI und drahtlosen 5G-Netzwerken bis hin zu hybride Cloud und Hochleistungsrechnen. Die kombinierte Lösung nutzt die F5 Application Delivery and Security Platform, um den Datenverkehr in und aus KI-Infrastrukturen zu beschleunigen, zu sichern und zu optimieren und so die effiziente Verarbeitung großer KI-Workloads erheblich zu verbessern. Durch die Bereitstellung eines optimierten Verkehrsmanagements ermöglicht die Lösung eine höhere Datenaufnahmeleistung und Serverauslastung während der KI-Inferenz, was zu einem besseren Erlebnis für Benutzer von KI-Apps führt.
BIG-IP Next für Kubernetes reduziert die Komplexität der Integration mehrerer Elemente der KI-Infrastruktur eines Unternehmens erheblich, indem es Netzwerk-, Sicherheits-, Verkehrsmanagement- und Lastausgleichsfunktionen vereinheitlicht, um umfassende Transparenz in Multicloud-Umgebungen mit verbesserter Beobachtbarkeit für KI-Workloads zu bieten. Die Lösung unterstützt wichtige Sicherheitsfunktionen für Zero-Trust-Architekturen, API-Schutz, Intrusion Prevention, Verschlüsselung und Zertifikatsverwaltung. Mit der allgemeinen Verfügbarkeit wurden hardwarebeschleunigte Abwehrmaßnahmen gegen Distributed Denial of Service (DDoS) sowie Edge-Firewall-Funktionen hinzugefügt, die einen schnelleren und effizienteren Cyberschutz ermöglichen. Die Lösung automatisiert außerdem die Erkennung und Sicherung von Trainings- und Inferenzendpunkten für KI-Modelle und ermöglicht es Unternehmen, KI- Applications vor gezielten Bedrohungen zu isolieren und gleichzeitig die Datenintegrität und -souveränität zu stärken.
Darüber hinaus ermöglicht die Integration von BIG-IP Next für Kubernetes und NVIDIA BlueField-3 DPUs eine Multi-Tenant-Architektur, die mehrere Benutzer sicher auf denselben KI-Clustern hosten kann, während ihre KI-Workloads, Daten und ihr Datenverkehr getrennt bleiben.
Gemeinsam verbessern F5 und NVIDIA nicht nur das Infrastrukturmanagement und die Effizienz, sondern ermöglichen auch schnellere, reaktionsfähigere KI-Inferenzen für neue Anwendungsfälle, wie beispielsweise:
Sowohl für GPUaaS als auch für Inferenzdienste ist die granulare Beobachtbarkeit eine entscheidende Voraussetzung. BIG-IP Next für Kubernetes bietet eine zentralisierte und vollständig integrierte Ansicht, die umfassende Transparenz im gesamten KI-Ökosystem bietet, um Leistung und Ausfallsicherheit zu überwachen, mit der Möglichkeit, Sicherheitsfunktionen sofort anzuwenden, um den Datenschutz durchzusetzen, unberechtigter Zugriff zu verhindern und Anomalien zu isolieren.
Weitere Informationen finden Sie auf der Produktseite oder wenden Sie sich an Ihr F5-Account-Team, um BIG-IP Next für Kubernetes für die KI-Infrastruktur Ihres Unternehmens zu besprechen. Der Fokus von F5 auf KI hört hier nicht auf – entdecken Sie , wie F5 KI-Apps überall sichert und bereitstellt .