BLOG

KI-Fabriken produzieren die modernsten modernen Apps: KI-Apps

Paul Pindell Miniaturbild
Paul Pindell
Veröffentlicht am 30. Januar 2025
Hunter Smit Miniaturbild
Jäger Smit
Veröffentlicht am 30. Januar 2025

In den letzten Monaten hat F5 ausführlich über KI-Fabriken diskutiert. Zu Beginn unserer Reihe haben wir eine KI-Fabrik als eine riesige Investition in Speicher-, Netzwerk- und Rechenkapazität definiert, die Trainings- und Inferenzanforderungen mit hohem Volumen und hoher Leistung erfüllt. KI-Fabriken sind letztendlich eine Analogie dafür, wie KI-Modelle und -Dienste erstellt, verfeinert und bereitgestellt werden. Ähnlich wie eine herkömmliche Produktionsanlage, die Materialien in Fertigwaren umwandelt, erstellen KI-Fabriken KI-Anwendungen. 

In diesem Blog-Artikel beschreiben wir die Ähnlichkeiten und Unterschiede zwischen einer KI-Anwendung und einer modernen Anwendung, heben die Bereitstellungs- und Sicherheitsanforderungen hervor und diskutieren diese modernen KI-Anwendungen im Kontext der F5-KI-Referenzarchitektur .

Entwicklung moderner Anwendungen

Moderne Anwendungen haben eine erhebliche Weiterentwicklung durchgemacht, getrieben durch den Bedarf an Agilität, Skalierbarkeit und verbesserter Benutzererfahrung. Die Einführung des Cloud-Computing stellt einen Wendepunkt in dieser Entwicklung dar und bildet die Grundlage für hochgradig verteilte Systeme, die effizient skalierbar sind und nahtlos in mehreren Umgebungen funktionieren. Die Anwendungsmodernisierung ist die Weiterentwicklung hin zu API-basierten Systemen, die zu einer Hybrid- und Multicloud-Architektur geführt hat. 

KI-Anwendungen verstärken die Abhängigkeit von APIs und etablieren Hybrid- und Multicloud als neue Normalität. Containerisierungstechnologien haben die Anwendungsbereitstellung weiter revolutioniert, indem sie konsistente und isolierte Umgebungen für Software unabhängig von der zugrunde liegenden Infrastruktur ermöglichen. Diese Fortschritte sind nicht nur für traditionelle moderne Anwendungen von entscheidender Bedeutung, sondern dienen auch als Rückgrat für KI-Fabriken. Die durch Cloud Computing und Containerisierung bereitgestellte Agilität ist für die Bewältigung der intensiven Rechenleistungsanforderungen beim Trainieren und Bereitstellen von KI-Modellen von entscheidender Bedeutung.

Orchestrierungstools wie Kubernetes sind für die Verwaltung containerisierter Anwendungen im großen Maßstab unerlässlich. Kubernetes automatisiert die Bereitstellung, Skalierung und Verwaltung dieser Anwendungen. In KI-Workflows koordiniert Kubernetes die Bereitstellung von KI-Workloads über mehrere Systeme hinweg, weist Ressourcen effizient zu und ermöglicht eine nahtlose Skalierung von KI-Modellen.

Ein entscheidender Aspekt dieses Prozesses ist MLOps, das sich mit den einzigartigen Herausforderungen der Entwicklung, Schulung und Operationalisierung von KI-Modellen befasst. MLOps unterstützt kontinuierliche Integration und Bereitstellung (CI/CD) und stellt sicher, dass KI-Modelle kontinuierlich getestet, aktualisiert und bereitgestellt werden. Darüber hinaus hat die Einführung von Microservices-Architekturen die moderne Anwendungsentwicklung verändert, indem monolithische Systeme in kleinere, unabhängig einsetzbare Dienste zerlegt wurden. Dieser Ansatz beschleunigt CI/CD und führt zu schnelleren und zuverlässigeren Softwareupdates.

Sicherheit war schon immer ein Eckpfeiler der Entwicklung moderner Anwendungen. Angesichts der Zunahme komplexer Cyberbedrohungen wurden in moderne Anwendungen erweiterte Sicherheitsmaßnahmen integriert, beispielsweise Web Application Firewalls (WAF), Schutz vor Distributed-Denial-of-Service-Angriffen (DDoS) und API-Sicherheit. Es ist wichtig, zwischen DDoS-Angriffen der Schicht 3/4, die auf die Netzwerk- und Transportschicht abzielen, und DoS-Angriffen der Schicht 7, die auf die Anwendungsschicht abzielen, zu unterscheiden. 

Mit dem Fortschritt der KI entwickelt sich das Bedrohungsmodell weiter, insbesondere für große Sprachmodelle (LLMs), auf die über Schnittstellen zur Verarbeitung natürlicher Sprache (NLP) zugegriffen wird. Zu den Risiken für LLMs zählen Schwachstellen wie jene, die in den OWASP Top 10 für LLM-Anwendungen hervorgehoben werden, z. B. Prompt-Injection-Angriffe und Bedrohungen durch Datenextraktion sowie modellspezifische DoS-Angriffe. Diese Sicherheitsverbesserungen sorgen dafür, dass KI-Anwendungen robust und sicher bleiben und die Integrität und Zuverlässigkeit KI-gesteuerter Lösungen auch angesichts neuer Bedrohungen gewahrt bleibt.

F5 AI-Referenzarchitektur

Wenn Sie unsere Serie zu KI-Fabriken verfolgt haben, haben wir Themen wie API-Sicherheit , Netzwerksegmentierung , Verkehrsmanagement , Retrieval-Augmented Generation (RAG) und Datenverarbeitungseinheiten (DPUs) untersucht. Lassen Sie uns einen Schritt zurückgehen und besprechen, wie eine KI-Fabrik in die F5-KI-Referenzarchitektur passt, wie KI-Fabriken KI-Anwendungen produzieren und welche Anforderungen für deren Bereitstellung und Sicherung gelten.

Die KI-Referenzarchitektur von F5.

Aufbauend auf unserer fast dreißigjährigen Erfahrung in der Unterstützung von Kunden bei der Bereitstellung leistungsstarker Anwendungen hat F5 eine KI-Referenzarchitektur entwickelt, die sieben Bausteine (Inferenz, RAG, RAG-Korpusverwaltung, Feinabstimmung, Training, Integration externer Dienste und Entwicklung) und vier Bereitstellungstypen (KI-SaaS, Cloud-gehostet, selbst gehostet und Edge-gehostet) umfasst. Weitere Informationen hierzu finden Sie in unserem Blog zur Definition einer KI-Fabrik . Da KI-Anwendungen die modernsten modernen Anwendungen sind, mit APIs verbunden und extrem verteilt sind, befasst sich diese Referenzarchitektur mit Leistungs-, Betriebs- und Sicherheitsherausforderungen, die für die Bereitstellung von KI-Anwendungen wesentlich sind. 

Training und Inferenz sind zwei der gängigsten Bausteine für KI-Fabriken. Allerdings ist jeder Baustein erforderlich, um eine voll funktionsfähige KI-Anwendung zu erstellen. Einige Organisationen bauen möglicherweise eine KI-Fabrik auf, um die für das Training oder die Inferenz erforderlichen Funktionen zu handhaben. Andere verlassen sich möglicherweise auf Drittanbieter, die Dienste zum Trainieren von Modellen nutzen oder eine Infrastruktur für Inferenzen bereitstellen.

KI-Anwendungen sind im Kern verteilt und laufen möglicherweise auf verteilten Kubernetes-Containerplattformen. Dies ist die eigentliche Definition einer modernen Anwendung und daher stammt auch unser Satz: „Eine KI-Anwendung ist einfach die modernste aller modernen Anwendungen.“ Aber was bedeutet dies für Unternehmen, die KI-Fabriken bauen? KI-Anwendungen benötigen dieselben Bereitstellungs- und Sicherheitsdienste wie moderne Anwendungen von heute, beispielsweise Kubernetes-Ingress, Multi-Tenant-Egress, DNS-basiertes Verkehrsmanagement, Ausfallsicherheit und Beobachtbarkeit. Aus Sicherheitsgründen sind DDoS-Schutz, Schutz von Webanwendungen und APIs sowie Optimierungstechnologien erforderlich. 

Es mag überraschend erscheinen, dass wir uns auf Bereitstellungs- und Sicherheitsfunktionen konzentrieren, die sowohl bei KI als auch bei modernen Anwendungen üblich sind, und nicht ausschließlich auf KI-spezifische Sicherheitsbedenken, doch dieser Ansatz ist beabsichtigt. KI-Anwendungen bringen einzigartige Risiken mit sich, doch oft werden die Grundlagen der Anwendungssicherheit und -bereitstellung zugunsten neuer, innovativer Funktionen vernachlässigt. Indem sie sich zuerst den gemeinsamen Sicherheits- und Bereitstellungsanforderungen widmen – also den Zielen, die wir als „leicht zu erreichen“ bezeichnen – können Unternehmen mithilfe ihrer vorhandenen Fachkompetenz in Sachen App-Sicherheit sofortige Verbesserungen erzielen. Obwohl KI-Anwendungen möglicherweise neue Komponenten beinhalten, basieren sie immer noch stark auf Web- und API-Interaktionen, die durchaus im Rahmen der Fähigkeiten aktueller NetOps- und SecOps-Teams liegen. Indem sie mit bewährten Sicherheits- und Bereitstellungsstrategien beginnen, können Teams eine solide Grundlage schaffen und die einzigartigen Herausforderungen, die KI-Anwendungen mit sich bringen, schrittweise angehen.

Highlights der F5-KI-Referenzarchitektur nicht nur die Leistung der KI-Fabrik, sondern auch die Herausforderungen und Risiken für den Erfolg der KI-Anwendung im Hinblick auf die Geschäftsziele des Unternehmens. Zu diesem Zweck haben wir uns entschieden, zwei sich ergänzende Top-10-Listen mit Risiken und Herausforderungen zu verwenden: die OWASP Top 10 für LLM-Anwendungen und die F5 Application Delivery Top 10 . Wir haben jede Komponente und Verbindung der Bausteine abgebildet und dargelegt, wo die anwendbaren OWASP LLM Top 10 und die F5 Application Delivery Top 10 gelten. Im folgenden Fall sehen Sie ein Beispiel für KI-Inferenz.

Die F5 AI-Referenzarchitektur hebt den Inferenz-Baustein hervor, überlagert mit den F5 Application Delivery Top 10 und den OWASP LLM Top 10.

Die F5 AI-Referenzarchitektur hebt den Inferenz-Baustein hervor, überlagert mit den F5 Application Delivery Top 10 und den OWASP LLM Top 10.

Jede Komponente und jeder Verbindungspunkt innerhalb einer KI-Anwendung profitiert von den bewährten Bereitstellungs- und Sicherheitsvorkehrungen, die für moderne Anwendungen entwickelt wurden. Dies bedeutet jedoch nicht, dass diese herkömmlichen Schutzmaßnahmen allein für die Absicherung von KI-Anwendungen ausreichen. Durch die Nutzung dieser bewährten Bereitstellungs- und Sicherheitslösungen als Grundlage können Unternehmen die Bereitstellung und Sicherheit ihrer KI-Anwendungen deutlich verbessern. Von dieser soliden Ausgangsbasis aus können die Teams nach und nach Spezialkenntnisse entwickeln und die erforderlichen fortschrittlichen Tools übernehmen, um die besonderen Herausforderungen und Risiken zu bewältigen, die KI-Anwendungen mit sich bringen.

Derzeit ist die F5 AI-Referenzarchitektur als Vorschau verfügbar . Kunden haben ab Ende nächsten Monats die Möglichkeit, die vollständige KI-Referenzarchitektur im Rahmen eines interaktiven Erlebnisses auf der AppWorld , der führenden Konferenz für Anwendungssicherheit und -bereitstellung von F5, kennenzulernen.

F5 unterstützt KI-Fabriken und moderne Anwendungen

F5 ist führend in der Anwendungsbereitstellung und -sicherheit . Lösungen wie F5 BIG-IP bieten wichtige Dienste wie Lastausgleich, Verkehrsmanagement und Sicherheit. Diese Funktionen, die allgemein für herkömmliche Anwendungen bekannt sind, sind für KI-Anwendungen gleichermaßen wichtig, um ein Höchstmaß an Zuverlässigkeit, Leistung und Schutz zu bieten.

Unternehmen, die KI-Fabriken aufbauen, verlassen sich bei der Bereitstellung und Sicherheit von Anwendungen auf die Funktionen von F5. Diese Funktionen sind für KI-Fabriken erforderlich. F5 BIG-IP Local Traffic Manager , gepaart mit speziell entwickelter Hardware mit F5 rSeries und VELOS , ermöglicht eine leistungsstarke Datenaufnahme für Training und Feinabstimmung und schützt KI-Anwendungen vor den anspruchsvollsten Sicherheitsbedrohungen. F5 Distributed Cloud Services ermöglichen sichere Multicloud-Netzwerke sowie Web-Anwendungs- und API-Schutz. Und das kürzlich angekündigte F5 BIG-IP Next für Kubernetes, das auf NVIDIA BlueField-3 DPUs bereitgestellt wird, verlagert Verkehrsmanagement und Sicherheit für KI-Infrastrukturen im großen Maßstab von der CPU auf die DPU und ermöglicht so mehr Effizienz, Kontrolle und Leistung für KI-Anwendungen.

Um mehr darüber zu erfahren, wie F5 KI-Fabriken sichern und skalieren kann, wenden Sie sich noch heute an Ihr F5-Accountteam . Der Fokus von F5 auf KI endet hier nicht – entdecken Sie , wie F5 KI-Anwendungen überall sichert und bereitstellt .