Unser Verständnis von Technologie und ihrer Funktionsweise verändert sich an vielen Stellen grundlegend. Um zu erfahren, wie Unternehmen mit diesen Veränderungen umgehen, haben wir eine Umfrage mit SlashData durchgeführt, einem führenden Marktforschungsunternehmen für Technologie, bei der wir Hunderte von IT-, Sicherheits- und Softwareentwicklungsexperten aus verschiedenen Branchen und Regionen weltweit befragt haben.
Zu den Teilnehmern zählten Nutzer der Open-Source-Projekte von NGINX, von NGINX Open Source sowie der kommerziellen F5 NGINX-Produkte. Unsere Erkenntnisse bestätigen die Dringlichkeit, mit der Unternehmen sofortige Veränderungen in den Bereichen Containerisierung, Sicherheit, Entwicklerplattformen und KI vorantreiben wollen. Im Folgenden präsentieren wir die wichtigsten Ergebnisse unserer NGINX-Jahresumfrage 2025.
F5 NGINX hat sich als präferierter Einstiegspunkt für KI-Infrastrukturen etabliert, wobei führende Anbieter von KI-Hardware und -Software es als Haupt- oder empfohlene Reverse-Proxy- und Bereitstellungslösung für KI-Anwendungen nutzen. Umfrageergebnisse zeigen deutliche Signale von NGINX-Nutzern und der gesamten Anwendungsbereitstellungs-Community, sich einer KI-getriebenen Zukunft zuzuwenden.
Einsatz von KI-Agenten: Auf die Frage nach dem Umgang mit agentenbasierten KI-Aufgaben (siehe Abbildung 1) gaben die Befragten an, dass „NGINX konfigurieren“ mit 25 % aktuell am weitesten verbreitet ist, gefolgt von „Optimierung des Netzwerk-Datenverkehrs und Lastausgleich“ mit 24 %. „Bereitstellung und Skalierung der Infrastruktur“ sowie „Behebung von Sicherheitslücken“ setzen derzeit 23 % der Befragten ein.
Gemeinsames Engagement: Wenn wir die Antworten der Befragten, die agentenbasierte KI aktuell nutzen oder testen, zusammenfassen, führt „Protokollanalyse und proaktive Fehlerbehebung“ mit 48 %. „NGINX konfigurieren“ und „Infrastrukturbereitstellung und -skalierung“ liegen mit jeweils 46 % gleichauf, gefolgt von „Netzwerk-Datenverkehrsoptimierung“ mit 45 %.
Größtes zukünftiges Interesse: „Drift-Erkennung und -korrektur“ weckt mit 33 % das stärkste Interesse, gefolgt von „Überwachung von NGINX-Bereitstellungen“ mit 32 % und „Vorfallbenachrichtigung und -bewertung“ mit 31 %.
Spezialisierte Hardware: 25 % der Befragten setzen Workloads auf GPUs, TPUs oder FPGAs ein – bemerkenswert für eine Infrastruktur, die traditionell auf allgemeine Berechnungen ausgerichtet ist (siehe Abbildung 2). Wir erwarten, dass dieser Anteil weiter steigt, da mehrere zentrale Faktoren zusammenspielen: Fortschritte bei kleineren KI-Modellen, die vereinfachte Nutzung kleinerer KI-Modelle in cloudnativer Infrastruktur wie Docker und bei großen Cloud-Anbietern sowie die Auslagerung von Prozessen der Anwendungsbereitstellung (wie Verschlüsselung und SSL-Auslagerung auf NPUs und FPGA, KI-Inferenz auf GPU und TPU usw.).
Hauptbarrieren: Die Umfrageteilnehmer nannten Sicherheitsbedenken (26 %) und mangelndes Vertrauen in die Genauigkeit (24 %) als größte Hindernisse für die KI-Integration. Komplexität der Integration, Compliance- und Regulierungsauflagen sowie begrenztes Verständnis der Fähigkeiten von Agenten lagen jeweils bei 17 %.
Die Cloud-native Revolution gewinnt auch mehr als ein Jahrzehnt nach ihrem Start mit Containern und Kubernetes weiterhin an Fahrt. Bei wichtigen Cloud-native Komponenten haben zwar fast alle die Technologie übernommen, doch eine vollständige Verbreitung ist noch nicht erreicht (siehe Abbildung 3).
Im Einzelnen ergab unsere Umfrage:
Im vergangenen Jahrzehnt haben viele Technologieunternehmen APIs als zentrale Verbindungsmöglichkeit für interne und externe Abläufe übernommen. In cloud-nativen Architekturen ist API-First ein grundlegendes Gestaltungsprinzip. Entsprechend nutzen 86 % der Befragten API-Gateways, um ihre API-Infrastrukturen zu verwalten (siehe Abbildung 4).
Trotz der weit verbreiteten Umstellung auf APIs und der starken Nutzung von API-Gateways sind die meisten Unternehmen bei der API-Sicherheit noch nicht ausgereift (siehe Abbildung 5). Obwohl 86 % der Organisationen APIs einsetzen, haben nur 34 % eine API-Sicherheit umgesetzt. Das stellt ein erhebliches Sicherheitsrisiko in der modernen Anwendungsinfrastruktur dar.
Weniger als die Hälfte der Befragten konzentriert sich auf die Analyse des API-Datenverkehrs (43 %) und die Beobachtbarkeit (38 %), zwei weitere grundlegende Elemente der API-Sicherheit. Diese Lücke zeigt, dass viele es schwer finden, APIs umfassend zu überwachen und zu verwalten. Tatsächlich setzen 23 % der Befragten teamübergreifend unterschiedliche API-Management-Ansätze ein, was auf Herausforderungen zurückzuführen ist, alle im Unternehmen auf den bewährten „goldenen Pfad“ des API-Managements zu bringen.
Plattform-Engineering ist heute ein gefragter Begriff geworden. 65 % der Befragten setzen bereits Plattform-Engineering-Fähigkeiten und -Verantwortlichkeiten um (siehe Abbildung 6). Das betrifft sowohl große Unternehmen mit dedizierten Plattformteams als auch einzelne Teammitglieder, die als Plattform-Engineering-Leads fungieren. Rund 27 % verfügen über kleine, spezialisierte Plattform-Engineering-Teams, und 21 % binden einzelne Plattform-Engineering-Rollen in Entwicklungs- und Betriebsteams ein. 13 % der Unternehmen haben große, dedizierte Plattform-Engineering-Teams aufgebaut. Das zeigt deutlich, wie sehr das Wertversprechen von Plattform-Engineering inzwischen anerkannt und etabliert ist.
Bei allen Teamgrößen zeigen die Umfrageantworten zu Plattformherausforderungen vor allem in der Anfangsphase Schwierigkeiten. Nur 20 % der Befragten berichteten, dass sie keine bedeutsamen Herausforderungen hatten. Der Rest gab an, dass vielfältige Herausforderungen im Plattformmanagement ihre Organisationen aktiv beeinträchtigen – darunter Sicherheits- und Compliance-Probleme (18 %), Pflege der Dokumentation (16 %), Aktualisierung der Technologie (16 %) und begrenzte Ressourcen (14 %).
Die Umfrage zeigt klar, dass größere und kleinere Teams unterschiedliche Prioritäten bei Servicebereitstellung und Wertangebot setzen. Dabei konzentrieren sich größere Teams erwartungsgemäß auf anspruchsvollere Bereiche, während kleinere Teams sich stärker an traditionellem DevOps orientieren. Große, spezialisierte Plattform-Ingenieurteams bieten häufiger komplexe Services wie Database as a Service (54 %), Observability (52 %), API-Management (51 %), Firewall-Konfiguration und -Verwaltung (54 %) sowie CI/CD-Pipeline-Tools (50 %) an.
Unternehmen implementieren Technologien schneller, als sie diese handhaben können. Die Umfrage zeigt, dass Sie Container, APIs und Plattform-Engineering rasch übernehmen möchten, dennoch sind Sie aktuell nicht ausreichend vorbereitet, um das Entwickelte sicher zu betreiben und zu schützen. Die größte Schwachstelle liegt in der Sicherheit von APIs. Fast alle Organisationen setzen APIs ein, doch bei zwei Dritteln fehlt es an grundlegenden Schutzmaßnahmen. Das ist kein Risiko für die Zukunft, sondern eine bestehende Sicherheitslücke, die derzeit in der Produktion aktiv ist.
Inzwischen machen wir in bestimmten Bereichen echte Fortschritte. KI-Agenten stehen kurz davor, echte Infrastrukturaufgaben in großem Maßstab zu übernehmen und nicht nur vorzuführen. GPUs und spezialisierte Prozessoren setzen sich immer mehr durch. Die meisten Organisationen haben Teams für die Plattformentwicklung, auch wenn diese ihren Auftrag noch definieren.
Entscheidend ist jetzt konsequente Umsetzung. Unsere Empfehlungen? Erweitern Sie Ihr System nicht, bevor Sie Bestehendes zuverlässig steuern können. Harmonisieren Sie Ihre API-Sicherheits- und Managementprozesse. Schaffen Sie die nötige Transparenz, um Ihre Systeme wirklich zu verstehen. Stellen Sie Plattformteams klare Aufgaben und ausreichend Ressourcen bereit, damit sie liefern können.
Wir verfügen über die Technologie, um moderne, effiziente Infrastruktur zu schaffen. Jetzt gilt es, die unverzichtbare, wenn auch wenig attraktive Arbeit zu erledigen, damit sie sicher und nachhaltig bleibt.
Wenn Sie mehr über F5 NGINX-Produkte erfahren möchten, besuchen Sie unsere Webseite.