Im letzten Jahrzehnt hat sich NGINX Open Source als einer der weltweit meistgenutzten Webserver und als führende Lösung für die Application Delivery etabliert. Wir unterstützen Sie dabei, alles von kleinen Startups und akademischen Forschungsprojekten bis hin zu einigen der größten Webanwendungen der Welt durch Lastverteilung und Reverse-Proxy effektiv zu betreiben.
NGINX hat sich, genau wie zur Standardwahl für die Application Delivery, still und leise zu einem zentralen Element beim Training und der Bereitstellung von KI-Anwendungen entwickelt. Führende KI-Frameworks, Toolkits, Bibliotheken und Plattformen – wie Intel OpenVINO Model Server, NVIDIA Morpheus, Metas vLLM, NVIDIA Triton und andere – liefern native Konfigurationen für F5 NGINX Plus (und NGINX Open Source) mit, damit Sie gRPC/HTTP-Proxying, SSL/TLS-Terminierung, gesundheitsbewusste Lastverteilung und dynamische Neukonfiguration sofort nutzen können. Viele KI-Dienste und Lösungen, die auf Kubernetes-Clustern laufen, sehen im F5 NGINX Ingress Controller eine bevorzugte Wahl, um den Datenverkehr für Training und Vorhersage effizient in und aus den KI-Clustern zu steuern. Wenn Sie genauer hinschauen, erkennen Sie, dass NGINX nahezu überall dort zum Einsatz kommt, wo KI verwendet wird.
NGINX spielt in zahlreichen KI-Anwendungsfällen eine zentrale Rolle im KI-Stack. Egal, ob Sie Basis-Modelle verfeinern, Token-Ausgaben von LLMs streamen oder Anfragen zur Echtzeit-Anomalieerkennung leiten – NGINX ist meist schon im Datenpfad integriert.
NGINX gehört bei vielen führenden AIOps-Stacks, Tools und Managed Services zu den bevorzugten Ingress-Lösungen.
KI-Rahmenwerk | Wie Sie NGINX einsetzen |
Konkreter Nutzen |
---|---|---|
Intel OpenVINO Model Serve | F5 und Intel demonstrieren den Einsatz von Modell-Shards hinter NGINX Plus (YouTube) | Ein Gateway leitet direkt an CPU-, GPU- oder VPU-Backends weiter. |
NVIDIA Triton | Helm-Chart installiert Triton mit NGINX Plus Ingress für gRPC-Zugriff (GitHub) | HTTP/2-Multiplexing hält die GPU-Auslastung hoch. |
NVIDIA Morpheus | „So habe ich es gemacht“ Anleitung – Morpheus mit NGINX Plus Ingress sichern (F5 Community) | TLS-Offload und adaptive WAF vor Echtzeit-Sicherheitsanalysen. |
NVIDIA (XLIO) | Bereitstellungshandbuch für NGINX mit NVIDIA Accelerated IO (XLIO) (docs.nvidia.com) | Wir verbessern TLS-Offload und Leistung, inklusive Anleitungen zum Aufbau mit OpenSSL-Unterstützung sowie Beispieldateien. |
Meta vLLM | Offizielle Dokumentation erklärt, wie Sie mehrere vLLM-Instanzen mit NGINX loadbalancieren (vLLM) | Schnelles horizontales Skalieren von Endpunkten zur Textgenerierung. |
MLOps-Teams setzen NGINX-Produkte ein, weil sie leichtgewichtig, modular, portabel sind und hohe Token-Volumina in vielfältigen Umgebungen bewältigen – genau wie Teams, die Microservices und APIs managen, welche für KI-Bereitstellungen unverzichtbar sind. KI-Entwickler und Machine-Learning-Ingenieure können NGINX im Rahmen ihrer standardisierten KI-Workflows nutzen, indem sie ein vom Plattform- oder MLOps-Team konfiguriertes Container-Image integrieren. NGINX arbeitet mit Hardwarebeschleunigung auf den meisten gängigen Plattformen und Prozessorarchitekturen zuverlässig zusammen.
KI-Komponenten, die NGINX als Standardoption nutzen, decken das gesamte Spektrum der KI-Infrastruktur ab — von der GPU-Planung auf niedriger Ebene über die Modellbereitstellung und Orchestrierung bis hin zur Governance auf Unternehmensebene. Sie zeigen, wie NGINX verschiedene Anwendungsfälle unterstützt: sicheren Datenverkehr zu Inferenzendpunkten weiterzuleiten, eine skalierbare und effiziente Modellbereitstellung zu ermöglichen, den Mehrmandanten-Clusterzugang zu verwalten und betriebliche Richtlinien für Versionskontrolle, Auditing sowie regulatorische Compliance durchzusetzen.
Gemeinsam decken diese Plattformen und Tools das gesamte Spektrum der KI-Infrastruktur ab – von der GPU-Planung auf niedriger Ebene bis zum Bereitstellen von Modellen, der Orchestrierung und der Governance auf Unternehmensebene. Sie zeigen klar, wie NGINX unterschiedlichste Anwendungsfälle unterstützt: sicheren Datenverkehr zu Inferenzendpunkten leiten, skalierbare und effiziente Modellbereitstellung ermöglichen, den Multi-Tenant-Clusterzugriff steuern und Betriebsrichtlinien zu Versionskontrolle, Audits und Compliance durchsetzen. Die Liste wächst kontinuierlich, und wir freuen uns darauf, was die nächste Generation KI-basierter Unternehmen mit NGINX schafft.
Wir unterstützen Sie dabei, Ihre KI mit F5 NGINX One zu skalieren.