Das Versprechen der generativen KI, die Produktivität zu steigern und die Geschäftstätigkeit zu stärken, hat die Aufmerksamkeit von Unternehmensführern in vielen Branchen geweckt: Laut dem F5 2025 State of Application Strategy Report gaben praktisch alle Befragten (99 %) an, dass sie sich beim Einsatz von KI nicht nur zur Entscheidungsunterstützung, sondern auch zur Automatisierung mindestens einer Betriebsfunktion wohlfühlen.
„Organisationen auf der ganzen Welt sind dabei, mit beschleunigtem Tempo generative KI und andere neue Technologien einzusetzen, um ihre Arbeitsweise, Innovation und Kundeninteraktion zu verändern“, sagte Kunal Anand, Chief Innovation Officer bei F5.
Allerdings verfügen standardmäßige generative KI-Modelle, die auf handelsüblichen großen Sprachmodellen (LLMs) basieren, häufig nicht über die aktuellen Informationen und die kontextbezogene Intelligenz, um im dynamischen Geschäftsumfeld von heute eine strategische und vertrauenswürdige Rolle zu spielen, in dem Echtzeit-Datenzugriff, domänenspezifisches Fachwissen und präzise Entscheidungsfindung für den Erfolg entscheidend sind.
Organisationen, die generative KI- Applications mit einer Quelle für aktuellere, genauere und domänenspezifischere Informationen integrieren möchten, setzen Retrieval-Augmented Generation (RAG) ein, ein KI-Framework, das Retrieval-basierte und generative Ansätze kombiniert, um die Qualität und Genauigkeit der KI-generierten Antworten zu verbessern.
Die erfolgreiche Implementierung von RAG in eine KI-Infrastruktur eines Unternehmens ist kein einfaches Plug-and-Play. RAG erfordert die Orchestrierung mehrerer Technologiekomponenten und Technologien und ist ein hervorragendes Beispiel dafür, wie für den Erfolg von KI-Unternehmenslösungen ein offenes und kollaboratives Ökosystem aus Technologieanbietern, Infrastrukturpartnern und Vertriebspartnern erforderlich ist.
An der Bereitstellung von RAG sind mehrere Anbieter beteiligt, darunter Anbieter von Datenspeichern, Containerplattformen, LLMs, Tools zur Verkehrsverwaltung, APIs und Backend-Infrastruktur und mehr. Enterprise-KI ist ein echter Mannschaftssport und wir bei F5 sind uns bewusst, dass viele Akteure zusammenkommen müssen, um KI im großen Maßstab für unsere Kunden möglich zu machen. Für den Erfolg ist die Leistungsfähigkeit eines kollaborativen Netzwerks erforderlich, das Technologieanbieter umfasst, die erstklassige Komponenten und Software liefern, Vertriebspartner, die Tools in Geschäftsergebnisse umsetzen, und eine Denkweise, die KI nicht als Produkt, sondern als Lösungsökosystem betrachtet.
F5 und Red Hat OpenShift AI bieten eine robuste, einheitliche Grundlage für die Bereitstellung von RAG in LLMs und berücksichtigen die erheblichen Sicherheits- und Verkehrsmanagementkomplexitäten, die mit der Integration von Daten aus mehreren Quellen in ein generatives KI-System verbunden sind. Red Hat und F5 blicken auf eine lange Geschichte technologischer Partnerschaften zurück und die aktuelle Zusammenarbeit der Unternehmen bietet eine robuste, geschützte und skalierbare Plattform für KI-gesteuerte Initiativen, einschließlich der RAG-Integration in vorhandene LLMs.
F5 und Red Hat sind bewährte Marktführer: F5 wurde von CRN zu einem der 25 „angesagtesten KI-Unternehmen für Rechenzentren und Edge“ ernannt , wobei F5s „All-in-One-Plattform für Application und Sicherheit … zur Unterstützung von Unternehmen bei der Bewältigung von Multi-Cloud-Netzwerk-, KI- und API-Sicherheitsanforderungen“ verwiesen wurde. Red Hat wird von Dataquest als führender Anbieter von Open-Source-Unternehmenslösungen anerkannt und erklärt, dass seine „Open-Source-Innovation die nächste Ära der Unternehmens-IT definieren wird.“
Die Kombination aus den fortschrittlichen Sicherheits- und Verkehrsmanagementtechnologien von F5 und Red Hat OpenShift AI , einer fortschrittlichen Plattform zur Entwicklung von KI- Application , trägt dazu bei, eine sicherere und skalierbarere Struktur für KI-gesteuerte Initiativen zu schaffen. Unternehmen können ihre KI Applications bedenkenlos einsetzen, da sie wissen, dass sie vor sich entwickelnden Cyberbedrohungen geschützt sind und den hohen Anforderungen moderner KI-Workloads gerecht werden.
Red Hat und F5 sowie ihr Ökosystem aus Technologiepartnern werden weiterhin zusammenarbeiten, um Kunden dabei zu helfen, ihre Apps und APIs in komplexen, hybriden Umgebungen zu verbinden und zu sichern. Wenn Unternehmen das Potenzial der KI erkunden, können sie sich auf vertrauenswürdige Anbieter wie Red Hat und F5 verlassen, die eine konsistente, einheitliche Plattform bereitstellen, um KI-Umgebungen verwaltbar, kosteneffizient und sicher zu halten und so eine Umgebung zu fördern, in der Innovation und Sicherheit Hand in Hand gehen.
RAG wird für generative KI- Applications auf Unternehmensebene immer wichtiger, und der RAG-Markt wird in den kommenden Jahren mit einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 44,7 % zwischen 2024 und 2030 stark wachsen und bis 2030 möglicherweise 11,03 Milliarden US-Dollar erreichen.
Obwohl RAG die Ergebnisse generativer KI- Applications erheblich verbessern kann, ist die Bereitstellung von RAG in LLMs nicht einfach, da dadurch die Systemkomplexität und die Sicherheitsrisiken erheblich steigen, da die zusätzlichen Datenkomponenten von RAG in mehreren digitalen Umgebungen und externen Wissensdatenbanken vorhanden sind. Die für die Übermittlung von Abrufanforderungen und die erweiterten Datenantworten erforderlichen Netzwerkverbindungen bergen Sicherheitsrisiken und Risiken hinsichtlich Datenlecks und erfordern strenge Zugriffskontrollen und Verschlüsselungsmechanismen zum Schutz vertraulicher Daten.
Die Integration von Red Hat OpenShift AI mit F5 Distributed Cloud Services und F5 BIG-IP Next für Kubernetes bietet eine Reihe grundlegender Dienste, die erweiterte Sicherheits- und Verkehrsmanagementtechnologien bereitstellen, um mehrere RAG-Anwendungsfälle zu unterstützen und zu schützen.
Distributed Cloud Services sind SaaS-basierte Sicherheits-, Netzwerk- und Anwendungsmanagement , die es Kunden ermöglichen, ihre Applications in einer Cloud-native Umgebung bereitzustellen, zu sichern und zu betreiben, wo immer sie benötigt werden – im Rechenzentrum, in Multi-Cloud-Umgebungen oder am Netzwerk- bzw. Unternehmensrand.
Im Gegenzug optimiert BIG-IP Next für Kubernetes das Verkehrsmanagement und die Verteilung über KI-Verarbeitungscluster und gewährleistet eine skalierbare und effiziente API-Kommunikation zur Unterstützung RAG-basierter Workloads sowie zuverlässige und leistungsstarke Datenflüsse ohne Leistungseinbußen.
Die jüngste Ankündigung von Meta bezüglich seiner Llama 4-Herde von LLMs , wobei Llama 4 Scout über ein Kontextfenster mit 10 Millionen Token verfügt, hat Kommentare hervorgerufen, dass derart umfangreiche Kontextfenster RAG bald überflüssig machen könnten. Allerdings sind Llama 4 LLMs vortrainiert und in sich geschlossen, ohne Echtzeitzugriff auf externe oder private Daten, sofern sie nicht ausdrücklich für diese Funktionen konzipiert sind. Umgekehrt ermöglicht RAG den Modellen, die aktuellsten und relevantesten Informationen aus riesigen Datenspeichern in Echtzeit abzurufen und zu integrieren, wodurch sichergestellt wird, dass die KI-Ausgaben sowohl genau als auch kontextrelevant sind. F5 ist davon überzeugt, dass RAG auch weiterhin ein grundlegender generativer KI-Mechanismus bleiben wird, da es der dynamischen und interaktiven Natur von KI-Workflows besser gerecht wird.
Durch die Bereitstellung von Distributed Cloud Services und BIG-IP Next für Kubernetes auf Red Hat OpenShift AI entsteht eine verstärkte Sicherheitslösung zum Schutz von RAG-Workloads. Die gemeinsame Plattform von F5 und Red Hat verbessert die Zuverlässigkeit und Skalierbarkeit von RAG und bietet eine einfach zu verwaltende Grundlage für RAG-gestützte generative KI-Lösungen, die eine höhere Genauigkeit und Relevanz für bessere Ergebnisse und ein besseres Benutzererlebnis bieten.
Weitere Informationen finden Sie in der Lösungsübersicht . Und wenn Sie vorhaben, am diesjährigen Red Hat Summit teilzunehmen, nehmen Sie bitte an einer F5-Sitzung teil.