F5 Technologieausblick 2025

Geschrieben von

Lori MacVittie, angesehene Ingenieurin
Laurent Quérel, renommierter Ingenieur
Oscar Spencer, leitender Ingenieur

Ken Arora, renommierter Ingenieur
Kunal Anand, Chief Innovation Officer
James Hendergart, Sr. Dir. Technologieforschung

Obwohl generative KI sicherlich einen der größten Auswirkungen auf die Unternehmen im Jahr 2024 haben wird, ist sie nicht der einzige Trend oder die einzige Technologie, die für Aufsehen sorgt. Ein Wirbelsturm aus Kosten und Komplexität führt dazu, dass Workloads, insbesondere Speicher und Daten, aus der öffentlichen Cloud zurückverlagert werden. Zweifellos wird diese Bewegung auch von der Notwendigkeit angetrieben, die Unternehmensdatenhäuser dazu zu bringen, die Versprechen der KI zu nutzen.

Dadurch verfügen Unternehmen über eine hybride IT-Infrastruktur, die sich über die öffentliche Cloud, lokale Systeme und Edge-Computing erstreckt. Wir rechnen zwar mit einer erheblichen Verschiebung der Arbeitslast von der öffentlichen Cloud in die lokale Umgebung, glauben jedoch nicht, dass die Unternehmen sich voll und ganz auf einen Standort konzentrieren werden. Sie werden bleiben, was sie sind: überzeugte Hybride.

Dies stellt das Unternehmen vor erhebliche Herausforderungen bei der Standardisierung von Sicherheit, Bereitstellung und Betrieb in unterschiedlichen Umgebungen. Die verwirrende Vielfalt an APIs und Tools stellt weiterhin eine Bedrohung für die Stabilität und den Umfang des digitalen Geschäfts dar.

In diesem Kontext untersucht F5 Technologien und deren mögliche Auswirkungen auf das Unternehmen und anschließend auf die Application und -sicherheit. Die Konsequenzen beeinflussen unsere Pläne, unsere Strategie und die weitere Erforschung neuer Technologien. Vor diesem Hintergrund präsentiert eine ausgewählte Gruppe von F5-Technologieexperten ihre Erkenntnisse zu den fünf Schlüsseltechnologien, die unserer Meinung nach im Jahr 2025 den größten Einfluss auf Unternehmen und damit auf die Application haben werden.

Technologie 2025 Nr. 1: WebAssembly

Diese Realität treibt die erste unserer Technologien voran, die wir im Jahr 2025 im Auge behalten sollten: WebAssembly (Wasm). Wasm bietet einen Weg zur Portabilität innerhalb der hybriden Multicloud-Umgebung und ermöglicht die Bereitstellung und Ausführung von Applications überall dort, wo eine Wasm-Runtime ausgeführt werden kann. Aber Wasm ist mehr als nur eine Manifestation des Versprechens der plattformübergreifenden Portabilität von Code. Es bietet leistungs- und sicherheitsbezogene Vorteile und eröffnet gleichzeitig neue Möglichkeiten zur Erweiterung der Funktionalität browserbasierter Applications.

Oscar Spencer, leitender Ingenieur, erklärt:

Es wird nicht erwartet, dass WebAssembly im Browser im Laufe des Jahres 2025 drastische Änderungen erfährt. Das wichtigste Update ist die fortgesetzte Unterstützung für die WebAssembly Garbage Collection (GC), die bereits in Chrome integriert wurde. Dies kommt Sprachen wie Dart und Kotlin zugute, die stark auf GC angewiesen sind und ihre Präsenz in Browserumgebungen ausbauen möchten. Auch bei der Python-Nutzung in Browsern besteht Verbesserungspotenzial, die vollen Auswirkungen sind jedoch noch nicht abschätzbar.

Die größeren Entwicklungen finden jedoch außerhalb des Browsers mit der Veröffentlichung von WASI (WebAssembly System Interface) Preview 3 statt. Dieses Update führt Async und Streams ein und löst damit ein großes Problem mit Streaming-Daten in verschiedenen Kontexten, wie beispielsweise Proxys. WASI Preview 3 bietet effiziente Methoden zur Handhabung der Datenbewegung in und aus Wasm-Modulen und ermöglicht eine fein abgestimmte Kontrolle über die Datenverarbeitung, etwa das Ändern von Headern ohne die Verarbeitung ganzer Anforderungstexte. Darüber hinaus wird die Einführung von Async die Kompositierbarkeit zwischen Sprachen verbessern und nahtlose Interaktionen zwischen asynchronem und synchronisiertem Code ermöglichen, was insbesondere für Wasm-native Sprachen von Vorteil ist. Mit der Stabilisierung der WASI-Standards können wir mit einer deutlichen Zunahme der Wasm-Akzeptanz rechnen, da Entwicklern robuste Tools und eine zuverlässige Plattform für die Weiterentwicklung dieser Fortschritte geboten werden.

Vorausgesetzt, Wasm kann einige der Portabilitätsprobleme früherer Technologien lösen, würde es die Portabilitätsprobleme, mit denen 95 % der Unternehmen heute zu kämpfen haben, auf andere kritische Ebenen des IT-Technologie-Stacks verlagern, beispielsweise in den Betrieb.

Der Wettlauf um die Bewältigung dieser Herausforderung ist die generative KI und die immer realer werdende Zukunft von AIOps. Diese fantastische Sicht auf Betriebsabläufe – Änderungen und Richtlinien, die durch KI-basierte Analysen auf Grundlage der Full-Stack-Beobachtung gesteuert werden – kommt dank der unglaublichen Evolutionsgeschwindigkeit der generativen KI jeden Tag der Realität näher.

Technologie 2025 Nr. 2: Agentische KI

Innerhalb von weniger als einem Jahr sind Agenten entstanden, die KI-Funktionen ersetzen. Diese als „Agentic AI“ bezeichnete Fähigkeit dürfte nicht nur Betriebsabläufe umgestalten, sondern ganze Märkte für Unternehmenssoftware auf den Kopf stellen. Man muss sich nur den Einsatz von KI zur Automatisierung von Arbeitsabläufen ansehen, die seit fast zwei Jahrzehnten von SaaS dominiert werden, um zu erkennen, wie bahnbrechend diese Fähigkeit sein wird.

Laurent Quérel, renommierter Ingenieur, erklärt:

Autonome Codieragenten werden die Softwareentwicklung revolutionieren, indem sie wichtige Aufgaben wie Codegenerierung, Tests und Optimierung automatisieren. Diese Agenten rationalisieren den Entwicklungsprozess erheblich, verringern den manuellen Aufwand und beschleunigen die Projektlaufzeiten. Gleichzeitig werden durch die Entstehung großer multimodaler Agenten (Large Multimodal Agents, LMAs) die KI-Fähigkeiten über die textbasierte Suche hinaus auf komplexere Interaktionen ausgeweitet. Diese Agenten interagieren mit Webseiten und extrahieren Informationen aus verschiedenen Formaten, darunter Text, Bilder und Videos, und verbessern so die Art und Weise, wie wir auf Online-Inhalte zugreifen und diese verarbeiten.

Während KI-Agenten das Internet umgestalten, werden wir die Entwicklung agentenspezifischer Browsing-Infrastrukturen erleben, die eine sichere und effiziente Interaktion mit Websites ermöglichen sollen. Dieser Wandel könnte Branchen wie den E-Commerce durch die Automatisierung komplexer Webaufgaben revolutionieren und so zu personalisierteren und interaktiveren Online-Erlebnissen führen. Da diese Agenten jedoch immer stärker in das tägliche Leben integriert werden, sind neue Sicherheitsprotokolle und -vorschriften unabdingbar, um Bedenken hinsichtlich der KI-Authentifizierung, des Datenschutzes und des potenziellen Missbrauchs auszuräumen. Es wird erwartet, dass bis 2028 ein erheblicher Teil der Unternehmenssoftware KI-Agenten enthalten wird, die Arbeitsprozesse transformieren und durch eine schnellere Token-Generierung in iterativen Arbeitsabläufen Entscheidungsfindung in Echtzeit ermöglichen. Diese Entwicklung wird auch zur Schaffung neuer Tools und Plattformen für agentengesteuerte Webentwicklung führen und einen wichtigen Meilenstein in der digitalen Landschaft darstellen.

Die Wahrheit ist jedoch, dass man Daten braucht – und zwar eine Menge – um die Vorteile der KI voll auszuschöpfen. Dies ist eine erhebliche Herausforderung, wenn man bedenkt , dass fast die Hälfte (47 %) der Unternehmen zugibt, keine Datenstrategie für KI zu haben . Es ist keine triviale Herausforderung. Die Datenmenge, über die eine Organisation verfügt – strukturierte, unstrukturierte und Echtzeitmesswerte – ist überwältigend. Allein das Katalogisieren dieser Daten erfordert eine erhebliche Investition.

Technologie 2025 Nr. 3: Datenklassifizierung

Kommen Sicherheitsbedenken aufgrund dramatisch zunehmender Angriffsflächen, neue Bestimmungen zu Datenschutz und Compliance sowie die Einführung neuer Datenquellen und Bedrohungsvektoren hinzu, ist der perfekte Nährboden für die Entwicklung robuster Technologien zur Echtzeit-Datenklassifizierung. Konkret wird erwartet, dass generative KI-Modelle herkömmliche regelbasierte Systeme bei der Erkennung und Klassifizierung von Unternehmensdaten übertreffen werden.

James Hendergart, Sr. Dir. Technology Research erklärt:

Aufgrund mehrerer zusammenlaufender Trends gewann die Datenklassifizierung im Jahr 2024 stark an Bedeutung. Die explosionsartige Zunahme an Daten, Geräten und Applications sowie die fortschreitende digitale Transformation haben die Angriffsfläche für Cyberbedrohungen dramatisch vergrößert. Dieser Anstieg der Sicherheitslücken sowie anhaltende Datenschutzverletzungen unterstreichen die dringende Notwendigkeit eines robusten Datenschutzes. Gleichzeitig führten immer strengere Vorschriften zum Schutz der Privatsphäre und zur Sicherstellung der Compliance dazu, dass Unternehmen der Datenklassifizierung eine noch höhere Priorität einräumten, da die Klassifizierung die Grundlage für den Datenschutz bildet. Darüber hinaus führte der Aufstieg der generativen KI zu neuen Datenquellen und Angriffsmethoden, was die Herausforderungen im Datensicherheit komplexer machte.

Etwa 80 % der Unternehmensdaten sind unstrukturiert. In Zukunft werden generative KI-Modelle die bevorzugte Methode zum Erkennen und Klassifizieren unstrukturierter Unternehmensdaten sein und Genauigkeitsraten von über 95 % bieten. Diese Modelle werden mit der Zeit effizienter, erfordern weniger Rechenleistung und ermöglichen schnellere Inferenzzeiten. Lösungen wie Datensicherheit Posture Management (DSPM), Data Loss Prevention (DLP) und Data Access Governance werden sich zunehmend auf die Erkennung und Klassifizierung sensibler Daten als Grundlage für die Bereitstellung einer Reihe von Sicherheitsdiensten stützen. Mit der Konvergenz von Netzwerk- und Datenübertragungsdiensten werden die Anbieter aufgrund der Plattformkonsolidierung ihre Angebote erweitern und Marktanteile gewinnen wollen, indem sie umfassende, kostengünstige und benutzerfreundliche Plattformen anbieten, die den sich entwickelnden Unternehmensanforderungen gerecht werden.

Der gemeinsame Wunsch aller Organisationen, generative KI für alle Bereiche von der Produktivität über die Workflow-Automatisierung bis hin zur Inhaltserstellung zu nutzen, führt zur Einführung eines neuen Application , da Organisationen beginnen, KI-Funktionen einzusetzen. Dieses Muster erweitert die traditionellen drei Fokusebenen (Client, Server und Daten) um eine neue KI-Ebene, auf der Inferenzen eingesetzt werden.

2025 Technologie Nr. 4: KI-Gateways

Diese neue Ebene trägt dazu bei, die Definition von KI-Gateways voranzutreiben, der vierten unserer zu beobachtenden Technologien. KI-Gateways sind nicht nur API-Gateways oder Web-Gateways. Während die Grundfunktionen denen von API-Gateways ähneln, erfordern die besonderen Architekturanforderungen des bidirektionalen, unstrukturierten Datenverkehrs und einer wachsenden Benutzerbasis „guter“ Bots neue Funktionen.

Ken Arora, renommierter Ingenieur, erklärt:

KI-Gateways entwickeln sich als natürliche Weiterentwicklung von API-Gateways und sind speziell auf die Anforderungen von KI- Applications zugeschnitten. Ähnlich wie Cloud Access Security Brokers (CASBs) auf die Sicherung von SaaS-Unternehmensanwendungen spezialisiert sind, konzentrieren sich KI-Gateways auf einzigartige Herausforderungen wie Halluzinationen, Voreingenommenheit und Jailbreaking, die häufig zu unerwünschten Datenoffenlegungen führen. Da KI- Applications immer autonomer werden, müssen Gateways auch für robuste Sichtbarkeit, Governance und Lieferkettensicherheit sorgen und die Integrität der Trainingsdatensätze und Modelle von Drittanbietern gewährleisten, die nun potenzielle Angriffsvektoren darstellen. Darüber hinaus werden mit der Entwicklung von KI-Apps Probleme wie Distributed-Denial-of-Service-Angriffe (DDoS) und Kostenmanagement angesichts der höheren Betriebskosten von KI- Applications im Vergleich zu herkömmlichen Anwendungen kritisch. Darüber hinaus erfordert der zunehmende Datenaustausch mit KI-Apps für Aufgaben wie Zusammenfassung und Musteranalyse einen ausgefeilteren Schutz vor Datenlecks.

In Zukunft müssen KI-Gateways sowohl Reverse- als auch Forward-Proxys unterstützen, wobei Forward-Proxys kurzfristig eine entscheidende Rolle spielen, da der KI-Verbrauch die KI-Produktion übersteigt. Mittlere Proxys werden auch für die Verwaltung der Interaktionen zwischen Komponenten in KI- Applications von entscheidender Bedeutung sein, beispielsweise zwischen Vektordatenbanken und großen Sprachmodellen (LLMs). Die sich verändernde Natur der Bedrohungen erfordert auch eine Änderung unserer Herangehensweise an die Sicherheit. Da viele Clients zu automatisierten Agenten werden, die im Auftrag von Menschen handeln, werden die aktuellen Bot-Schutzmodelle weiterentwickelt, um zwischen legitimen und bösartigen Bots unterscheiden zu können. KI-Gateways müssen erweiterte Richtlinien wie delegierte Authentifizierung, Verhaltensanalyse und die Durchsetzung geringstmöglicher Privilegien integrieren und sich dabei an den Zero-Trust-Prinzipien orientieren. Hierzu gehören risikobewusste Richtlinien und eine verbesserte Transparenz, um sicherzustellen, dass KI-bedingte Sicherheitsverletzungen wirksam eingedämmt werden und gleichzeitig eine robuste Governance aufrechterhalten wird.

Besonders wichtig ist es, nicht nur die traditionellen Sicherheitsbedenken im Zusammenhang mit Daten (Exfiltration, Leckage) auszuräumen, sondern auch ethische Probleme im Zusammenhang mit Halluzinationen und Voreingenommenheit anzugehen. Es überrascht niemanden, dass Letztere in nahezu jeder Umfrage zu diesem Thema als erhebliches Risiko eingestuft werden.

Technologie 2025 Nr. 5: Kleine Sprachmodelle

Angesichts der Probleme mit Halluzinationen und Voreingenommenheit wäre es undenkbar, die zunehmende Verwendung von Retrieval-Augmented Generation (RAG) und Small Language Models (SLMs) zu ignorieren. RAG hat sich schnell zu einem grundlegenden Architekturmuster für generative KI entwickelt, insbesondere aufgrund seiner Fähigkeit, die Spezifität und Genauigkeit der von großen Sprachmodellen erzeugten Informationen zu verbessern. Durch die Kombination der Stärken von Abrufsystemen mit generativen Modellen bietet RAG eine Lösung für eine der wichtigsten Herausforderungen der KI: Halluzinationen oder die Generierung falscher oder irreführender Informationen.

Unternehmen, die RAG noch nicht in ihre KI-Strategien integrieren, entgehen erhebliche Verbesserungen der Datengenauigkeit und -relevanz, insbesondere bei Aufgaben, die einen Echtzeit-Informationsabruf und kontextbezogene Reaktionen erfordern. Doch mit der zunehmenden Ausweitung der Anwendungsfälle für generative KI stellen Unternehmen fest, dass manche Probleme nicht allein mit RAG gelöst werden können.

Lori MacVittie, angesehene Ingenieurin, erklärt:

Die zunehmenden Einschränkungen von LLMs, insbesondere ihre mangelnde Präzision beim Umgang mit domänenspezifischem oder organisationsspezifischem Wissen, beschleunigen die Einführung kleiner Sprachmodelle. Während LLMs bei der Applications allgemeiner Kenntnisse unglaublich leistungsstark sind, scheitern sie häufig, wenn es darum geht, genaue und differenzierte Informationen in Spezialbereichen zu vermitteln. Genau in dieser Lücke brillieren SLMs, da sie auf spezifische Wissensbereiche zugeschnitten sind und dadurch zuverlässigere und gezieltere Ergebnisse liefern können. Darüber hinaus benötigen SLMs erheblich weniger Ressourcen hinsichtlich Strom und Rechenzyklen und stellen somit eine kostengünstigere Lösung für Unternehmen dar, die nicht für jeden Anwendungsfall die umfangreichen Funktionen eines LLM benötigen.

Derzeit sind SLMs eher branchenspezifisch und oft auf Bereiche wie das Gesundheitswesen oder das Recht geschult. Obwohl diese Modelle auf engere Domänen beschränkt sind, sind sie sowohl hinsichtlich der Kosten als auch der Komplexität wesentlich einfacher zu trainieren und einzusetzen als LLMs. Da immer mehr Unternehmen nach Lösungen suchen, die besser auf ihre speziellen Datenanforderungen abgestimmt sind, ist zu erwarten, dass SLMs LLMs in Situationen ersetzen, in denen durch Abruf erweiterte Generierungsmethoden allein Halluzinationen nicht vollständig eindämmen können. Wir gehen davon aus, dass SLMs mit der Zeit zunehmend in Anwendungsfällen dominieren werden, in denen hohe Genauigkeit und Effizienz von größter Bedeutung sind, und Unternehmen eine präzisere und ressourcenschonendere Alternative zu LLMs bieten.

Ausblick: Mehr als Transformatoren

Der Bedarf an effizienteren KI-Modellen, die die wachsende Komplexität moderner Applications bewältigen können, ohne enorme Rechenressourcen zu erfordern, wächst schnell. Transformer-Modelle sind zwar leistungsstark, weisen jedoch Einschränkungen hinsichtlich Skalierbarkeit, Speichernutzung und Leistung auf, insbesondere wenn die Größe von KI-Modellen zunimmt. Daher besteht ein starker Druck, Architekturen zu entwickeln, die eine hohe Genauigkeit aufweisen und gleichzeitig den Rechenaufwand reduzieren. Darüber hinaus beschleunigt die Forderung nach einer Demokratisierung der KI, d. h. nach einer Zugänglichkeit für verschiedene Geräte und Anwendungsfälle, die Einführung von Innovationen wie 1-Bit großen Sprachmodellen, die für eine optimierte Präzision bei gleichzeitiger Minimierung der Hardwareanforderungen konzipiert sind, weiter.

Diese Anforderungen treiben die Entwicklung der KI über Transformatoren hinaus voran.

Kunal Anand, Chief Innovation Officer, erklärt:

Es entsteht ein neues Paradigma: die Konvergenz neuartiger neuronaler Netzwerkarchitekturen mit revolutionären Optimierungstechniken, die eine Demokratisierung des KI-Einsatzes über verschiedene Applications und Geräte hinweg versprechen.

Die KI-Community beobachtet bereits erste Anzeichen von Post-Transformer-Innovationen im Design neuronaler Netzwerke. Diese neuen Architekturen zielen darauf ab, die grundlegenden Einschränkungen aktueller Transformatormodelle zu beheben und gleichzeitig ihre bemerkenswerten Fähigkeiten zum Verstehen und Generieren von Inhalten beizubehalten oder zu verbessern. Zu den vielversprechendsten Entwicklungen zählt die Entstehung hochoptimierter Modelle, insbesondere 1-Bit-großer Sprachmodelle. Diese Innovationen stellen einen fundamentalen Wandel in unserer Herangehensweise an die Modell-Effizienz dar. Sie ermöglichen eine drastische Reduzierung des Speicherbedarfs und des Rechenaufwands bei gleichbleibender Modellleistung trotz reduzierter Präzision.

Die Auswirkungen dieser Entwicklungen werden sich in mehreren Wellen durch das gesamte KI-Ökosystem ziehen. Die primären Auswirkungen werden unmittelbar im reduzierten Ressourcenbedarf für den KI-Einsatz sichtbar. Modelle, die früher umfangreiche Rechenressourcen und viel Speicher erforderten, werden künftig effizienter und mit deutlich geringerem Overhead laufen. Diese Optimierung wird einen Wandel in der Computerarchitektur auslösen, wobei GPUs möglicherweise auf Trainings- und Feinabstimmungsaufgaben spezialisiert werden, während CPUs Inferenz-Workloads mit neuen Fähigkeiten bewältigen.

Diese Veränderungen werden eine zweite Welle von Effekten auslösen, bei denen Demokratisierung und Nachhaltigkeit im Mittelpunkt stehen. Mit sinkendem Ressourcenbedarf wird der KI-Einsatz für verschiedene Applications und Geräte zugänglich. Die Infrastrukturkosten werden erheblich sinken und Edge-Computing Funktionen ermöglichen, die bisher nicht praktikabel waren. Gleichzeitig bringt die reduzierte Rechenintensität Umweltvorteile durch einen geringeren Energieverbrauch und einen geringeren CO2-Fußabdruck mit sich und macht den KI-Betrieb nachhaltiger.

Diese Entwicklungen werden beispiellose Fähigkeiten bei Edge-Geräten, Verbesserungen bei der Echtzeitverarbeitung und eine kostengünstige KI-Integration branchenübergreifend ermöglichen. Die Computerlandschaft wird sich in Richtung Hybridlösungen entwickeln, die verschiedene, für bestimmte Arbeitslasten optimierte Verarbeitungsarchitekturen kombinieren und so eine effizientere und vielseitigere KI-Infrastruktur schaffen.

Die Auswirkungen dieser Entwicklungen gehen weit über technische Verbesserungen hinaus. Sie gehen von einer Zukunft aus, in der der Einsatz von KI vielseitiger und umweltbewusster wird, ohne dass die Leistung nachlässt. Auf dem Weg ins Jahr 2025 werden diese Veränderungen wahrscheinlich die Integration von KI in Applications beschleunigen und branchenübergreifend neue Möglichkeiten für Innovation und Effizienz schaffen.

Die einzige Konstante ist jetzt wirklich die Veränderung

Das vergangene Jahr war zweifellos ein Jahr bedeutender Veränderungen, Entwicklungen und Überraschungen in der Technologie. Man kann davon ausgehen, dass das nächste Jahr mehr davon bringen wird. Schließlich ist das volle Potenzial der generativen KI noch nicht ausgeschöpft, und daher ist es wahrscheinlich, dass noch weitere, disruptive Anwendungsfälle für diese spannende Technologie auftauchen werden.

Wenn Organisationen nicht bereits mit generativer KI experimentieren, sollten sie damit beginnen. Die Verwendung von Diensten bietet sicherlich einen guten Ausgangspunkt für grundlegende Anwendungsfälle wie Chatbots und Empfehlungsmaschinen, aber das Potenzial generativer KI geht weit über Konversationen und die Generierung neuer Katzenvideos hinaus.

Es ist mit weiteren Veränderungen zu rechnen, und es werden weiterhin neue Möglichkeiten zur Nutzung von KI auftauchen, da KI die Grundlagen der Technologie weiterhin neu gestaltet.