F5 und NVIDIA arbeiten zusammen, um beschleunigte Infrastrukturlösungen zu erstellen, die es Unternehmen ermöglichen, KI-Anwendungen effektiv und sicher im Cloud-Maßstab bereitzustellen.
BIG-IP Next für Kubernetes bietet leistungsstarkes Verkehrsmanagement und Sicherheit für KI-Infrastrukturen im großen Maßstab und ermöglicht so mehr Effizienz, Kontrolle und Leistung für KI-Anwendungen.
BIG-IP Next für Kubernetes läuft nativ auf NVIDIA BlueField-3 DPUs. Dies bietet Unternehmen und Dienstanbietern einen einzigen Kontrollpunkt, um die Nutzung der KI-Infrastruktur zu maximieren und den KI-Verkehr für die Datenaufnahme, das Modelltraining, die Inferenz und die Retrieval-Augmented Generation (RAG) zu beschleunigen.
Maximieren Sie Ihre Investitionen in die KI-Infrastruktur und erzielen Sie niedrigere Gesamtbetriebskosten, indem Sie gleichzeitig ein leistungsstarkes Verkehrsmanagement und einen Lastausgleich für KI-Infrastrukturen im großen Maßstab bereitstellen.
Aktivieren Sie sichere Mandantenfähigkeit und Netzwerkisolierung für KI-Anwendungen, sodass mehrere Mandanten und Workloads effizient eine einzige KI-Infrastruktur gemeinsam nutzen können – sogar bis auf die Serverebene.
Integrieren Sie kritische Sicherheitsfunktionen und eine Zero-Trust-Architektur, einschließlich Edge-Firewall, DDoS-Minderung, API-Schutz, Intrusion Prevention, Verschlüsselung und Zertifikatsverwaltung, und verlagern Sie diese gleichzeitig auf die DPU, beschleunigen und isolieren Sie sie.
Leistung, Effizienz und Sicherheit sind für den Erfolg von Unternehmen, die große GPU-Cluster in ihren KI-Fabriken einsetzen, von entscheidender Bedeutung. BIG-IP Next für Kubernetes nutzt die NVIDIA BlueField-3 DPU-Plattformen und gibt wertvolle CPU-Zyklen für umsatzgenerierende Anwendungen frei. BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs (Versionen B3220 und B3240), optimiert die Datenbewegung und verbessert die GPU-Auslastung bei gleichzeitiger Optimierung des Energieverbrauchs.
Kunal Anand, Chief Technology und AI Officer von F5, beantwortet Fragen und diskutiert die Zusammenarbeit von F5 und NVIDIA sowie die Ankündigung von BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs.
KI-Anwendungen erfordern beschleunigte Netzwerkfunktionen. BIG-IP Next für Kubernetes optimiert den Datenverkehr zu KI-Clustern und ermöglicht durch die direkte Schnittstelle zu Front-End-Netzwerken eine effizientere Nutzung der GPU-Ressourcen. Bei KI-Modellen mit mehreren Milliarden Parametern reduziert BIG-IP Next für Kubernetes, bereitgestellt auf BlueField-3-DPUs, die Latenz und bietet einen leistungsstarken Lastenausgleich für die Datenaufnahme und eingehende Abfragen.
Mit BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs, können Unternehmen mehr Benutzer auf gemeinsam genutzten Computerclustern sicher unterstützen und gleichzeitig KI-Trainings- und Inferenz-Workloads skalieren. Verbinden Sie KI-Modelle mit Daten an unterschiedlichen Standorten und verbessern Sie gleichzeitig die Transparenz der App-Leistung erheblich, indem Sie erweiterte Kubernetes-Funktionen für die KI-Workload-Automatisierung und zentralisierte Richtlinienkontrollen nutzen.
Das schnelle Wachstum von APIs für KI-Modelle bringt erhebliche Sicherheitsherausforderungen mit sich. BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs, automatisiert die Erkennung und den Schutz von Endpunkten und sichert KI-Apps vor sich entwickelnden Bedrohungen ab. Durch die Nutzung einer Zero-Trust-Architektur und die Verlagerung der Netzwerk- und Sicherheitsverarbeitung von CPUs auf DPUs bietet BIG-IP Next für Kubernetes feinkörnigen Schutz und gewährleistet eine robuste Datenverschlüsselung. Dieser Ansatz verbessert nicht nur die Cyberabwehr, sondern optimiert auch das KI-Datenmanagement, was zu einer sichereren, skalierbareren und effizienteren Infrastruktur für Dienstanbieter und Unternehmen führt.
BIG-IP Next für Kubernetes, bereitgestellt auf NVIDIA BlueField-3 DPUs, erfüllt die wachsenden Anforderungen von KI-Workloads und ist speziell für Kubernetes-Umgebungen konzipiert. Durch die Verbesserung der Effizienz der Nord-Süd-Verkehrsströme erhalten Unternehmen eine integrierte Ansicht von Netzwerken, Verkehrsmanagement und Sicherheit für KI-Anwendungsfälle wie Inferenz und RAG.
Im Zuge der Entwicklung der KI-Technologie ist das Konzept einer KI-Fabrik als Analogie für die Erstellung, Verfeinerung und Bereitstellung von KI-Modellen und -Diensten entstanden.
Cloudnative Apps im großen Maßstab bereitstellen? Informieren Sie sich, wie Sie mit F5 und NVIDIA mehr Effizienz, Leistung und Sicherheit für KI und andere moderne Apps erreichen können.
Nach der Einreichung wird sich ein Vertreter der Geschäftsentwicklung von F5 mit Ihnen in Verbindung setzen, um einen Termin zu vereinbaren.