BLOG

GPU als Service: Der Katalysator für KI-Wachstum in ASEAN, Chancen und Herausforderungen

Chin Keng Lim Miniaturbild
Chin Keng Lim
Veröffentlicht am 14. Oktober 2024

Mit der Weiterentwicklung der künstlichen Intelligenz (KI) steigt die Nachfrage nach leistungsfähiger Hardware rasant an. Für Unternehmen wird es zunehmend schwieriger, mit der Rechenleistung Schritt zu halten, die zum Ausführen komplexer KI-Modelle und -Workloads erforderlich ist. Hier kommt GPU as a Service (GPUaaS) ins Spiel.

Durch das Angebot von On-Demand-Zugriff auf leistungsstarke Grafikprozessoren (GPUs) über die Cloud verändert GPUaaS die Art und Weise, wie Unternehmen mit der KI-Infrastruktur umgehen. Es macht teure Hardware-Investitionen überflüssig, ermöglicht eine nahtlose Skalierung und lässt sich reibungslos in vorhandene Cloud-Dienste integrieren – und vereinfacht gleichzeitig den Betrieb. Aber wie genau funktioniert GPUaaS und warum wird es zur bevorzugten Lösung für KI-gesteuerte Organisationen?

Freisetzung des KI-Potenzials in ASEAN

Im Verband Südostasiatischer Nationen (ASEAN) wächst der GPUaaS-Markt, da immer mehr Akteure in den Markt eintreten, um spezifische regionale Herausforderungen anzugehen. Ein Schlüsselfaktor für dieses Wachstum ist die Sprache. Open-Source-Large Language Models (LLMs) werden überwiegend auf Englisch trainiert und haben oft Probleme mit lokalen Sprachen, die reich an kulturellen Nuancen sind. Daher müssen Unternehmen diese Modelle mit lokalen Daten neu trainieren oder optimieren, um genauere und relevantere Antworten in den Landessprachen zu gewährleisten.

Gleichzeitig tragen die Vorteile der Nutzung von GPUaaS zu seiner zunehmenden Verbreitung bei. Durch die Skalierbarkeit können Benutzer die GPU-Ressourcen mühelos an die Projektanforderungen anpassen. Gleichzeitig ermöglicht Elastizität durch ein Pay-per-Use-Modell es Unternehmen, ihre Gesamtausgaben zu senken, indem sie nur für das bezahlen, was sie nutzen. GPUaaS gewährt außerdem sofortigen Zugriff auf Spitzentechnologie und ermöglicht schnelles Prototyping und Bereitstellen, was die Flexibilität erhöht und die Markteinführungszeit verkürzt.

Weitere wichtige Überlegungen betreffen die Datengravitation, den Datenstandort und die Datensouveränität. Unter Datengravitation versteht man die Tendenz von Daten, Anwendungen und Dienste an ihren Standort zu ziehen, um eine bessere Leistung und Effizienz zu erzielen. In vielen Fällen müssen Daten aufgrund von Vorschriften zum Aufenthaltsort und zur Souveränität an bestimmten Standorten gespeichert werden, was bedeutet, dass GPUaaS-Anbieter in der Nähe ihrer Benutzerbasis ansässig sein müssen. Souveräne KI, die die Fähigkeit eines Landes betont, KI unter Verwendung seiner eigenen Infrastruktur, Daten und Ressourcen zu entwickeln, spielt auch eine wichtige Rolle bei der Gestaltung der Nachfrage nach lokalisiertem GPUaaS.

Schließlich sind die Kosten und das begrenzte Angebot an GPUs bei Cloud-Service-Providern (CSPs) in den ASEAN-Staaten wichtige Faktoren bei der Einführung von GPUaaS. Einem aktuellen Bericht von Dell zufolge können durch die Bereitstellung von KI vor Ort im Vergleich zu CSP-basierten Lösungen Einsparungen von bis zu 75 % erzielt werden. GPUaaS bietet eine kosteneffiziente Alternative, die es Unternehmen ermöglicht, auf leistungsstarke GPUs zuzugreifen, ohne im Voraus in erhebliche Mengen Hardware investieren zu müssen. Damit ist es eine attraktive Option für diejenigen, die ihre KI-Fähigkeiten in der Region skalieren möchten.

Abwägung der Vorteile und Risiken von GPUaaS

Die Vorteile von GPUaaS tragen zwar zu seiner weitverbreiteten Einführung bei, bringen jedoch auch eine Reihe von Bedenken mit sich. Ein zentrales Problem ist die Datensicherheit, da an GPUs übertragene und von GPUs empfangene Daten anfällig für Abfangen oder unbefugten Zugriff sein können. Darüber hinaus kann die Verarbeitung von Daten auf Remote-GPUs die Einhaltung unterschiedlicher Datenschutzbestimmungen und Compliance-Anforderungen erfordern. Ein weiteres Problem ist die Leistung. Hier kann die Abhängigkeit vom Internet oder einer privaten Verbindung sowie eine schwankende GPU-Leistung die Anwendungsgeschwindigkeit und Reaktionsfähigkeit beeinträchtigen. GPUaaS ist auf stabile Hochgeschwindigkeitsverbindungen angewiesen und bevorzugt für eine optimale Leistung häufig private Netzwerke gegenüber dem öffentlichen Internet.

Wie hilft F5?

F5 bietet über eine einzige Konsole innovative, Multicloud-SaaS-basierte Netzwerk-, Verkehrsoptimierungs- und Sicherheitsdienste für öffentliche und private Clouds, einschließlich GPUaaS-Anbieter.

Durch die Bildung eines verschlüsselten Mesh-Fabric-Overlays über jedem Netzwerk können Unternehmen eine Verbindung zu einem GPUaaS-Anbieter (KI-Fabrik) für KI-Inferenz, -Einbettung oder -Training herstellen. Durch die vollständige Netzwerk- und Anwendungssegmentierung ist die gesamte Overlay-Konnektivität privat und sicher und basiert auf einem vorhandenen Netzwerk-Underlay. Darüber hinaus bewältigt das verschlüsselte Mesh-Fabric von F5 Herausforderungen im Bereich der digitalen Ausfallsicherheit, indem es den Datenverkehr dynamisch überwacht, erkennt, optimiert und an die intakten KI-Komponenten weiterleitet. So wird sichergestellt, dass Ihre KI-Anwendungen immer betriebsbereit und verfügbar sind.

Unten sehen Sie ein Beispiel für die Bereitstellung einer LLM Retrieval Augmented Generation (RAG) unter Nutzung einer KI-Fabrik eines GPUaaS-Anbieters. Da die Daten sicher und verschlüsselt über das Secure Mesh transportiert werden, besteht kein Grund zur Sorge bezüglich der Daten während der Übertragung. Beim GPUaaS-Anbieter befinden sich auch keine Daten im Ruhezustand. Die gespeicherten Korpusdaten einer Organisation verbleiben unverändert am ursprünglichen Speicherort. Diese Architektur ermöglicht auch KI-Inferenzen für latenzempfindliche Anwendungen am Rand (einer öffentlichen Cloud oder sogar Zweigstellen).

Wenn die KI-Anwendung (z. B. ein agentenbasierter RAG-fähiger Chatbot) über das Internet zugänglich gemacht wird, ist es wichtig, einen Cloud-Netzwerk-basierten Web-App- und API-Schutzdienst (WAAP) in Betracht zu ziehen, um die KI-Anwendung vor Cyberangriffen zu schützen.

Abbildung 1: Ein Beispiel für die Bereitstellung einer LLM Retrieval Augmented Generation (RAG) unter Nutzung einer AI Factory eines GPUaaS-Anbieters
Abbildung 1: Ein Beispiel für die Bereitstellung einer LLM Retrieval Augmented Generation (RAG) unter Nutzung einer AI Factory eines GPUaaS-Anbieters

Durch die Nutzung einer Plattform mit einer einzigen Verwaltungskonsole ist es nun möglich, den gesamten Datenverkehr, einschließlich der APIs, die das verschlüsselte Mesh-Geflecht nach Norden/Süden und Osten/Westen durchqueren, zu konformisieren, zu beobachten und zu kontrollieren.

Abbildung 2: API-Erkennung, Posture-Management und API-Schutz sind grundlegend für die AI LLM-Sicherheit.
Abbildung 2: API-Erkennung, Posture-Management und API-Schutz sind grundlegend für die AI LLM-Sicherheit.

Darüber hinaus muss der Datenverkehr über das öffentliche Internet und das private verschlüsselte Netz für NetOps- und SecOps-Teams beobachtbar und kontrollierbar sein, um die im Wesentlichen komplexe und heterogene Multicloud-Infrastruktur verwalten zu können.

Abbildung 3: Multicloud-Netzwerke und Beobachtbarkeit sind bei einer verteilten KI-Bereitstellung von entscheidender Bedeutung. Diese kann sich über lokale Rechenzentren, private Clouds, öffentliche Clouds und Edge-Umgebungen erstrecken.
Abbildung 3: Multicloud-Netzwerke und Beobachtbarkeit sind bei einer verteilten KI-Bereitstellung von entscheidender Bedeutung. Diese kann sich über lokale Rechenzentren, private Clouds, öffentliche Clouds und Edge-Umgebungen erstrecken.

Möchten Sie mehr erfahren?

Angesichts der zunehmenden Verbreitung von KI ist die Robustheit von KI-Systemen von entscheidender Bedeutung, um langfristigen Erfolg sicherzustellen. GPUaaS bietet eine skalierbare und effiziente Lösung, Unternehmen müssen jedoch Herausforderungen wie Datensicherheit, Leistungsschwankungen und die Einhaltung gesetzlicher Vorschriften bewältigen. Indem sie diese Bedenken ausräumen und die Flexibilität von GPUaaS nutzen, können sich Unternehmen besser auf die wachsenden Anforderungen KI-gesteuerter Workloads vorbereiten.

Wenn Sie herausfinden möchten, wie die KI-Resilienz Ihrem Unternehmen zu mehr Leistung verhelfen kann, besuchen Sie uns auf der kommenden GovWare-Konferenz vom 15. bis 17. Oktober am Stand P06 im Sands Expo and Convention Centre. Dort werden wir diese Trends und Lösungen ausführlicher besprechen.