BLOG

Demokratisierung der KI mit dem AI Data Fabric von F5

Chris Ford Miniaturbild
Chris Ford
Veröffentlicht am 08. Januar 2025

Anfang 2024 haben wir das F5 AI Data Fabric eingeführt. Es handelt sich um eine neue Plattform, die wir entwickelt haben, um die Leistungsfähigkeit Künstliche Intelligenz für unsere Kunden zu nutzen. Das F5 AI Data Fabric ermöglicht unseren Produktteams die einfache und sichere Nutzung generativer KI in unserem gesamten Portfolio. Mit dem AI Data Fabric beschleunigen wir die Einführung von KI in unserem gesamten Portfolio und bringen unseren Partnern und Kunden echte, greifbare Vorteile.

Dies ist der erste einer Reihe von Blog-Beiträgen, in denen wir uns eingehender mit dem AI Data Fabric und seiner Funktionsweise befassen und einige der erstaunlichen neuen KI-gestützten Funktionen vorstellen, die wir mithilfe des Fabric auf den Markt bringen können. Zu Beginn unserer Reihe konzentrieren wir uns auf die Grundprinzipien, die unser Ziel einer schnellen Einführung geleitet haben.

Demokratisierung der KI

Mit dem AI Data Fabric wollten wir ein System aufbauen, das unseren Produktteams, einschließlich Fachexperten ohne datenwissenschaftlichen Hintergrund, den Zugang zu KI demokratisiert. Dieses System kombiniert Datenverarbeitungs-Pipelines, mehrere grundlegende Transformatormodelle, ein Ökosystem aus gemeinsam genutzten Modulen, MLOps und eine Steuerebene, die mit einem Software Development Kit (SDK) bereitgestellt wird.

Im Kern ist das F5 AI Data Fabric eine KI-Fabrik , die F5 dabei helfen soll, schnell mit KI zu innovieren. Wie jede gute KI-Fabrik bietet das AI Data Fabric eine gemeinsame, skalierbare Infrastruktur zum Erstellen und Ausführen von KI-Apps. Es unterstützt Produktteams bei folgenden Aufgaben:

  • Trainingsdaten generieren und beschriften
  • Trainieren und optimieren Sie aufgabenspezifische Modelle
  • Verpacken und implementieren Sie diese Modelle überall dort, wo sie ausgeführt werden müssen
  • Überwachen Sie die Modellleistung und den Modelldrift

Unsere Kunden dort treffen, wo sie sind

Als wir uns auf diese Reise begaben, hatten wir uns einige sehr konkrete Designziele gesetzt, um die Akzeptanz voranzutreiben. Anstatt die Benutzer zu zwingen, ihre Arbeitsweise zu ändern, mussten wir sie dort abholen, wo sie standen. Dies bedeutete, das Auffinden und Herstellen einer Verbindung zu allen Daten zu unterstützen, Self-Service zu ermöglichen, Mobilität und Portabilität zu unterstützen, ein Ökosystem zur Förderung von Zusammenarbeit und Innovation aufzubauen und große Sprachmodelle (LLMs) zur Beschleunigung des Modelltrainings zu verwenden.

Verbindung zu Daten herstellen, wo auch immer sie gespeichert sind

Gute KI beginnt mit Daten, und das F5 AI Data Fabric hilft dabei, Erkenntnisse aus den riesigen Datenmengen zu gewinnen, die von Produkten aus unserem gesamten Portfolio gesammelt werden. Wie die meisten Unternehmen, die Apps in großem Maßstab betreiben, sind wir uns der Realität bewusst, dass die Daten in vielen verschiedenen Speichern und nicht nur in einem einzigen Datensee gespeichert sind. Wir bringen Apps und Datenquellen unter, die vor Ort und in mehreren öffentlichen und privaten Clouds bereitgestellt werden. Das AI Data Fabric kann Daten verbinden und ihnen Rechenleistung hinzufügen, egal wo sie sich befinden. Ein gemeinsamer Datenkatalog unterstützt Benutzer bei der Navigation durch viele Datenquellen und ermöglicht es uns als Team, uns in die Datenverwaltungsstrategie von F5 einzufügen, um eine angemessene Kontrolle und Prüfung der Datenbestände sicherzustellen. Mithilfe dieser Strategie können wir Erkenntnisse gewinnen und Daten aus unterschiedlichen Applications und Produkten über mehrere Datenseen und Datenquellen hinweg verwalten und steuern, ohne die Arbeitsweise unserer Benutzer zu ändern.

Self-Service aktivieren

Benutzern die Möglichkeit zu geben, Daten mit Rechenleistung zu verknüpfen, ist nur ein Teil der Geschichte. Um die Akzeptanz zu fördern, mussten wir die gesamte Data Science-Benutzerreise berücksichtigen und überlegen, wo wir Reibungspunkte beseitigen können. 

Das Verpacken und Bereitstellen von KI-Apps ist ein gutes Beispiel. Wir übernehmen einen Großteil der harten Arbeit, damit unsere Benutzer das nicht tun müssen. Das AI Data Fabric kann Python-Abhängigkeiten verwalten, KI-Apps in einem Container mit einem HTTP-Server verpacken, diesen Endpunkt in unserem API-Gateway konfigurieren und die KI-Apps in Kubernetes mit den richtigen GPU-, CPU- und Speicheranforderungen bereitstellen, wo immer sie benötigt werden. Stellen Sie sich vor, Sie könnten ein Modell trainieren, verpacken und bereitstellen – alles in einem automatisierten Workflow über ein benutzerfreundliches SDK. Mit diesem System kann ein Datenwissenschaftler in 10 bis 15 Minuten eine neue Version seiner KI- Application bereitstellen. Durch die Reduzierung von Reibungsverlusten können Datenwissenschaftler das tun, was sie am besten können: Datenwissenschaft.

Für KI-Mobilität und Portabilität entwickelt

Dies ist ein weiteres Beispiel dafür, dass wir unsere Kunden dort abholen, wo sie sind. Alle erstellten Container werden im Container-Verzeichnis des AI Data Fabric gespeichert, sodass Benutzer KI-Apps überall dort bereitstellen können, wo sie ausgeführt werden müssen, sogar in Air-Gap-Umgebungen.

Ein Ökosystem aufbauen

Eine beschleunigte Einführung von KI erfordert eine schnelle Zusammenarbeit. Es bedeutet, die Arbeit Ihrer Vorgänger zu nutzen und darauf aufzubauen. Innerhalb des AI Data Fabric befinden sich ein „KI-Ökosystem“, Tools und vorgefertigte Module zum Ausführen allgemeiner und komplexer KI-Funktionen. Wenn Benutzer Module und Modelle zum Ökosystem zurückgeben, ist das ein echter Innovationsbeschleuniger. Die Module können von vorgefertigten Modellen zur Anomalieerkennung und Klassifizierung bis hin zu Apps für die Durchführung von Retrieval Augmented Generation (RAG) reichen.

Verwenden Sie LLMs, um das Modelltraining zu beschleunigen

Um die Einführung weiter zu beschleunigen, haben wir die Prinzipien der Agentic AI übernommen und auf das F5 AI Data Fabric angewendet. Am Ende haben wir ein System entwickelt, das Modelle trainieren und einsetzen kann, um über Daten zu urteilen, KI zum Schlussfolgern über die daraus resultierenden Erkenntnisse nutzen und dann eine Aufgabe identifizieren und erledigen kann. Kurz gesagt: Wir verwenden große Sprachmodelle, um Daten zu generieren, die uns wiederum dabei helfen, kleinere, aufgabenspezifische Modelle zu trainieren. Ein gutes Beispiel ist, wie wir Trainingsdaten kennzeichnen. Dies stellt für Datenwissenschaftler eine enorme Belastung dar, die wir verringern können: Das AI Data Fabric stellt eine Verbindung zu Trainingsdaten her, extrahiert Bedeutungen aus diesen Daten und verwendet dann KI, um über diese extrahierte Bedeutung nachzudenken und eine Kennzeichnungsaufgabe auszuführen, bevor die resultierenden gekennzeichneten Daten an eine andere Stelle übertragen werden.

Die Vorteile

Dieser Fokus auf eine einfache Einführung bedeutet für unsere Produktteams Folgendes:

  1. Effizienz : Das AI Data Fabric ermöglicht eine schnellere Zusammenarbeit, Modellentwicklung und Bereitstellung.
  2. Skala : Wir können Tausende von Modellen hochautomatisiert steuern, verwalten und warten. 
  3. Risikominderung : Durch die Kombination von Best Practices und gemeinsamen, standardisierten Systemen zur Datenverarbeitung und Ausführung unserer eigenen Modelle erreichen wir eine deutlich bessere Governance, schützen Kundendaten und tragen zur Einhaltung gesetzlicher Vorschriften bei. 

Ich freue mich auf

Wir haben das F5 AI Data Fabric bereits verwendet, um mehrere wichtige Projekte im gesamten Unternehmen zu ermöglichen, darunter KI-Assistenten, das Trainieren von Klassifizierungsmodellen und das Generieren von Signaturen für Anwendungsfälle im Bereich Web-App- und API-Schutz (WAAP). Diese großartigen Funktionen basieren auf den grundlegenden Modellen und Diensten des AI Data Fabric für Modelltraining, Feinabstimmung, Bereitstellung und Inferenz.

Wir sind wirklich begeistert von dem Mehrwert, den wir Kunden und Partnern durch die Verwendung des F5 AI Data Fabric bieten können. In dieser Hinsicht ist noch mehr zu erwarten. Seien Sie also gespannt auf zukünftige Beiträge, in denen wir einige der von uns verwendeten Techniken, die Herausforderungen, die wir bewältigen mussten, und die spezifischen Produktfunktionen, die wir ermöglichen, im Detail behandeln.