Erkunden Sie die Sicherheitsrisiken und Optimierungsherausforderungen, um einen ausgewogenen Ansatz für generative KI-basierte Anwendungen vorzubereiten.
Generative KI (oder GenAI) kann autonom neue Inhalte, einschließlich Text, Bilder oder Audio, erstellen, indem sie aus Mustern und Beispielen in vorhandenen Daten lernt. Es nutzt Deep-Learning-Modelle, um vielfältige und kontextrelevante Ergebnisse zu generieren und dabei die Kreativität und Problemlösungsfähigkeiten des Menschen nachzuahmen.
Einzelpersonen und Organisationen nutzen generative KI für eine Vielzahl von Zwecken und Anwendungen, darunter Inhaltserstellung, Verarbeitung natürlicher Sprache und Datensynthese. Bei der Inhaltserstellung hilft es bei der Generierung von allem, von Gedichten, akademischen Aufsätzen und Marketingmaterialien bis hin zu Bildern, Videos, Musik und Computercode. Im Bereich der Verarbeitung natürlicher Sprache verbessert generative KI Chatbots und Sprachübersetzungen und ermöglicht die Synthese riesiger Datenmengen, um die Kreativität bei Produktdesign, -entwicklung und -prototyping zu fördern. Der Einsatz von GenAI-Anwendungen innerhalb einer Organisation kann menschliche Arbeitskräfte unterstützen, indem er zu besseren, fundierteren Entscheidungen und verbesserter Betriebseffizienz beiträgt, was wiederum zu höherer Rentabilität und Unternehmenswachstum führt.
Allerdings bringt generative KI auch erhebliche Sicherheits- und ethische Bedenken mit sich, darunter das Potenzial für Voreingenommenheit, verstärkte Cyberangriffe und Datenschutzrisiken. Generative KI kann beispielsweise große Sprachmodelle (LLMs) verwenden, die mit systematisch aus dem Internet (wie Online-Büchern, Posts, Websites und Artikeln) zusammengetragenen Inhalten trainiert werden. Generative Modelle lernen aus Trainingsdaten. Wenn die verwendeten Daten verzerrt sind, kann es sein, dass das Modell bestehende Verzerrungen in seinen Ausgaben aufrechterhält und sogar verstärkt. Darüber hinaus kann generative KI unbeabsichtigt irreführende oder falsche Informationen erzeugen (sogenannte Halluzinationen), was zur Verbreitung von Fehlinformationen führt. Böse Akteure können GenAI auch dazu einsetzen, Propaganda zu verbreiten und abzustimmen, die zu sozialen Unruhen führen kann. Generative KI wird heute häufig von böswilligen Akteuren genutzt, um Deepfakes zu erstellen, also realistische, aber manipulierte Inhalte, die irreführend oder böswillig sein können. Deepfakes können für Identitätsdiebstahl, Social Engineering oder Phishing-Angriffe, die Verbreitung falscher Informationen oder die Erstellung irreführender Inhalte verwendet werden, die eine Bedrohung für Einzelpersonen und die Gesellschaft darstellen. Dark-Web-Märkte bieten jetzt ein FraudGPT-KI-Tool an, mit dem sich Spear-Phishing-E-Mails erstellen, nicht erkennbare Malware erstellen, Phishing-Seiten generieren, anfällige Websites identifizieren und sogar Tutorials zu Hacking-Techniken anbieten lassen.
Die Inhalte, die zur Ausbildung von LLMs verwendet werden und auf die möglicherweise ohne Zustimmung zugegriffen und die für das Modelltraining verwendet werden, können auch persönliche und vertrauliche Informationen sowie urheberrechtlich geschützte oder geschützte Inhalte enthalten. Da diese privaten Informationen alle Teil des Inhalts sind, auf den die KI bei der Inhaltsgenerierung zurückgreift, besteht das sehr reale Risiko, dass die Ausgaben unbeabsichtigt vertrauliche Daten oder private Informationen preisgeben.
Anbieter generativer KI bieten Einzelpersonen oder Organisationen möglicherweise keine Möglichkeit, zu bestätigen, dass ihre persönlichen oder geschützten Daten gespeichert oder für Schulungszwecke verwendet wurden, und können auch nicht die Löschung dieser Daten verlangen (im Rahmen des „Rechts auf Vergessenwerden“ oder „Recht auf Löschung“ in staatlichen Vorschriften wie der Datenschutz-Grundverordnung (DSGVO) der EU). Die LLM-Ausbildung beinhaltet oft auch die Zusammenführung und Nutzung von Daten aus verschiedenen Regionen oder Ländern. Dies kann zu Szenarien führen, die möglicherweise die Vorschriften zur Datensouveränität gefährden.
Generative KI bietet vielfältige Anwendungsmöglichkeiten für Organisationen und Branchen. Eine umsichtige Einbindung von GenAI in entsprechende Arbeitsabläufe kann Unternehmen dabei helfen, einen Wettbewerbsvorteil zu erlangen. Zu diesen Anwendungen gehören:
Generative KI-Sicherheit ist eine Reihe von Praktiken und Maßnahmen, die implementiert werden, um potenzielle Sicherheitsrisiken und Herausforderungen im Zusammenhang mit der Entwicklung, Bereitstellung und Nutzung von GenAI-basierten Anwendungen zu bewältigen. Da diese Technologien immer weiter verbreitet und ausgefeilter werden, werden Sicherheitsbedenken immer wichtiger, insbesondere da KI-Workloads zu einer bevorzugten Angriffsfläche für Cyberkriminelle geworden sind. Eine detaillierte Untersuchung der Sicherheitsrisiken, die mit der Bereitstellung und Verwaltung von GenAI-Anwendungen verbunden sind, finden Sie in den OWASP Top 10 für Large Language Model Applications . Ziel dieser Liste ist es, das Bewusstsein für die Schwachstellen zu schärfen, Strategien zur Behebung dieser Probleme vorzuschlagen und die Sicherheitslage von LLM-Anwendungen zu verbessern.
Obwohl GenAI extrem leistungsstark und beinahe magisch erscheint , nutzt es zum Teil die gleiche Infrastruktur, Schnittstellen und Softwarekomponenten wie herkömmliche Workloads und birgt daher dieselben Risiken, wie etwa Injection-Angriffe und Angriffe, die schwache Authentifizierungs- und Autorisierungskontrollen umgehen. Für den effektiven Betrieb anspruchsvoller generativer KI-Modelle ist eine zuverlässige, leistungsstarke und sichere Infrastruktur erforderlich.
Zu Infrastrukturangriffen zählt auch Denial of Service (DoS), bei dem Angreifer Hardware-Ressourcen wie CPU, Arbeitsspeicher oder Speicherplatz gezielt überlasten, um die Ausführung generativer KI-Workloads zu stören. Solche Angriffe führen zur Erschöpfung der Ressourcen, verschlechtern die Leistung oder verursachen Instabilität im System. Damit beeinträchtigen sie Verfügbarkeit und Zuverlässigkeit des KI-Systems und behindern die Fähigkeit des Modells, effektiv zu lernen und auf Ihre Anfragen zu reagieren.
Auch der unbefugte Zugriff auf die KI-Systeminfrastruktur stellt eine erhebliche Bedrohung für die GenAI-Arbeitsabläufe dar und kann die Vertraulichkeit und Integrität des Systems beeinträchtigen. Eingriffe in die Systeminfrastruktur können zu böswilligen Aktivitäten wie Datendiebstahl, Dienstunterbrechung oder Einschleusung von böswilligem Code führen. Dies gefährdet nicht nur die Sicherheit der KI-Modelle und -Daten, sondern kann auch zur Generierung und Verbreitung ungenauer oder schädlicher Ergebnisse führen.
Ausgangspunkt für jede GenAI-Anwendung sind die Trainingsdaten, die von maschinellen Lernmodellen verwendet werden, um gewünschte Muster zu erkennen, Vorhersagen zu treffen und Aufgaben auszuführen. Damit ein LLM hochleistungsfähig ist, müssen die Daten, mit denen es trainiert wird, ein breites und vielfältiges Spektrum an Domänen, Genres und Quellen abdecken. Allerdings ist der Modelltrainingsprozess – unabhängig davon, ob er gebrauchsfertige, vorab trainierte Modelle oder maßgeschneiderte Modelle verwendet, die anhand benutzerdefinierter Datensätze trainiert wurden – anfällig für Manipulationen und Angriffe.
Bei gegnerischen Angriffen manipulieren böswillige Akteure absichtlich Eingabedaten, um die Leistung generativer KI-Modelle zu beeinträchtigen oder zu beeinträchtigen. Dieser Prozess wird von OWASP als „Training Data Poisoning“ (Vergiftung von Trainingsdaten) bezeichnet. Dazu gehört auch die Manipulation von Daten, um Schwachstellen, Hintertüren oder Verzerrungen einzuführen, die die Sicherheit, Wirksamkeit oder das ethische Verhalten des Modells gefährden könnten. Diese Schwachstellen führen auch zu Angriffsmethoden, die böswillige Akteure ausnutzen können, um unbefugten Zugriff auf vertrauliche Informationen zu erhalten. Kompromittierte Modell-Lieferketten können zu verzerrten oder unzuverlässigen Ergebnissen, Datenschutzverletzungen und der Ausführung nicht autorisierten Codes führen. Dies ist insbesondere bei GenAI-Anwendungen von Bedeutung, da diese umfangreiche Plug-In-Ökosysteme nutzen.
GenAI-Anwendungen nutzen LLMs, die Ausgaben auf der Grundlage von Trainingsdatensätzen, neuronalen Netzwerken und Deep-Learning-Architekturen generieren, um Antworten auf Eingabeaufforderungen von Benutzern zu generieren. KI-Modelle dienen als Grundlage für die Erkennung von Mustern, Strukturen und Beziehungen in vorhandenen Daten, die auf Grundlage dieses Verständnisses zur Generierung neuer Ergebnisse dienen.
KI-Modelle sind anfällig für verschiedene Angriffe, darunter Prompt-Injections und andere Eingabebedrohungen, die LLMs durch gezielt formulierte Eingaben manipulieren, damit das Modell frühere Anweisungen ignoriert oder ungewollte Handlungen ausführt. Prompt-Injections zählen zu den häufigsten Ursachen für Fehlinformationen und gefälschte Inhalte, die KI-Modelle erzeugen. GenAI-Anwendungen sind auch anfällig für Schwachstellen wie Server-Side Request Forgery (SSRF), die Angreifern ermöglichen, unerwünschte Anfragen zu senden oder auf eingeschränkte Ressourcen zuzugreifen, sowie Remote Code Execution (RCE), mit der die Anwendung bösartigen Code oder andere Befehle auf dem zugrunde liegenden System ausführen kann.
Der Schutz von GenAI-Systemen erfordert eine mehrschichtige Sicherheitsstrategie. Dazu zählen zuverlässige Authentifizierungs- und Autorisationsprotokolle sowie strenge Zugriffskontrollen, damit nur berechtigte Personen Zugang zu wichtigen Systemkomponenten erhalten. Setzen Sie ein vorausschauendes Schwachstellenmanagement um, das regelmäßige Software-Updates und kontinuierliche Überwachung zur Früherkennung und Abwehr von Eindringversuchen einschließt. Um Distributed Denial-of-Service-Angriffe abzuwehren, integrieren Sie Redundanzen wie Backup-Server und ausfallsichere Protokolle, um die ständige Verfügbarkeit der Verarbeitung sicherzustellen. Auch LLMs sind anfällig für Denial-of-Service-Angriffe, da Benutzeraufforderungen Token erzeugen und LLMs über begrenzte Kontextfenster verfügen, die gezielt zur Erschöpfung der Systemressourcen ausgenutzt werden können.
Organisationen sollten strenge Prüfprozesse implementieren, um die Lieferkette der Trainingsdaten zu verifizieren und nur vortrainierte Modelle aus vertrauenswürdigen Quellen auszuwählen. Da Daten von schlechter Qualität und Verzerrungen in den Trainingsdaten die Fähigkeit des Modells beeinträchtigen können, genaue Darstellungen zu lernen und zuverlässige Ergebnisse zu liefern, ist die Vorverarbeitung der Daten, bevor sie in ein generatives Modell eingespeist werden, für eine effektive GenAI von entscheidender Bedeutung. Die Feinabstimmung von Modellen ist auch in vielen regulierten Branchen von entscheidender Bedeutung. Techniken wie Datenbereinigung, -normalisierung und -erweiterung sowie Erkennung und Minderung von Verzerrungen können dazu beitragen, Fehler und Datenvergiftungen zu verhindern.
Implementieren Sie robuste Zugriffskontrollen, Verschlüsselungsmethoden und sichere Bereitstellungspraktiken – einschließlich Netzwerkisolierung und geeigneter Firewall-Konfigurationen –, um generative KI-Modelle vor potenziellen Sicherheitsbedrohungen zu schützen. Um Prompt-Injektionen zu verhindern, setzen Sie Techniken wie Prompt-Bereinigung, Eingabevalidierung und Prompt-Filterung ein, um sicherzustellen, dass das Modell nicht durch böswillig erstellte Eingaben manipuliert wird. Das Risiko einer unbefugten Codeausführung lässt sich durch den Einsatz sicherer Codierungspraktiken, die Durchführung gründlicher Codeüberprüfungen und die Nutzung von Laufzeitschutzmaßnahmen wie Code-Sandboxing verringern. Die sofortige Injektion stellt eines der schwerwiegendsten und kompliziertesten Risiken von GenAI-Anwendungen dar.
Da die GenAI-Verarbeitung ressourcenintensiv sein kann, ist die Optimierung generativer KI-Modelle zur Verbesserung von Leistung und Effizienz ein wichtiger Schritt, um Modelle schneller, skalierbarer und energieeffizienter zu machen.
Multi-Cloud-Umgebungen bilden die Grundlage für KI-gestützte Anwendungen, da sie KI-Workloads und Ökosystem-Plugins über verteilte Umgebungen hinweg miteinander verbinden. Multi-Cloud-Networking (MCN) ermöglicht es Ihnen, Ressourcen dynamisch an die Rechenanforderungen generativer KI-Workloads anzupassen, einschließlich Hardwarebeschleunigern wie Grafikprozessoren (GPUs). So integrieren wir Ressourcen verschiedener Cloud-Anbieter in die Datenverarbeitung, um Leistung zu steigern und Verzögerungen zu minimieren. Wenn Sie GenAI-Modelle über mehrere Cloud-Regionen verteilen, profitieren Sie von geografisch verteilter Verarbeitung, geringerer Latenz und schnelleren Reaktionszeiten – ein entscheidender Vorteil für verteilte Echtzeit- oder interaktive KI-Anwendungen. Edge AI entwickelt sich für Sie zu einer wertvollen Methode, um die Nutzererfahrung deutlich zu verbessern. Die regionale Verteilung von GenAI-Modellen ermöglicht Ihnen zudem, Daten gemäß den Anforderungen an die Datensouveränität zu speichern und zu verarbeiten.
Die Container-Orchestrierungsplattform Kubernetes ist der anerkannte Standard zur Ausführung von GenAI-Workloads. Sie stellt die Infrastruktur bereit, um KI-Modelle in Containern zu betreiben und zu skalieren, sodass Verfügbarkeit und Ressourceneffizienz sichergestellt sind. Kubernetes übernimmt die Orchestrierung, steuert Bereitstellung und Überwachung der verschiedenen Komponenten innerhalb der KI-Anwendung und gewährleistet, dass KI-Modelle, Datenverarbeitungspipelines und weitere Dienste effizient verwaltet und skaliert werden. MCN- und Ingress-Controller sind entscheidend, weil Kubernetes unterschiedlich implementiert wird und wir Workloads einheitlich bereitstellen, Datenverkehr sicher steuern und Inferenzverteilung verlässlich gewährleisten müssen.
APIs stellen das Bindegewebe für verschiedene Teile der KI-Anwendung dar, um Daten und Anweisungen auszutauschen und so verschiedenen Komponenten und Diensten die Kommunikation untereinander zu ermöglichen. Die Anbindung von GenAI-Plugin-Ökosystemen erfolgt beispielsweise über API-Aufrufe. Kubernetes-Ingress-Lösungen bieten integrierte Funktionen für Lastausgleich, Geschwindigkeitsbegrenzung und Zugriffskontrolle und verteilen den Datenverkehr sicher auf mehrere Pods, um die Gesamtverarbeitungsleistung von KI-Workloads zu verbessern.
Die Balance zwischen Ausgabegeschwindigkeit und Qualität erfordert oft Abwägungen bei der Optimierung von GenAI. Hohe Qualität erreichen Sie meist nur mit komplexeren, ressourcenintensiveren Modellen und Berechnungen, während die Optimierung der Leistung oftmals Modellvereinfachungen mit sich bringt, die die Qualität der erzeugten Inhalte beeinträchtigen können. Komplexere Modelle brauchen außerdem längere Trainingszeiten und verlangsamen die Inferenz, was sowohl Ihre Trainingsgeschwindigkeit als auch die Leistung von Echtzeitanwendungen beeinflusst. Das trifft besonders auf GenAI-Modelle zu, die sich an dynamische Umgebungen anpassen müssen. Sie erfordern kontinuierliche Optimierung und machen die Balance zwischen Qualität und Leistung zur Herausforderung. Neben GPUs engagieren wir auch CPUs und DPUs für Verarbeitungsaufgaben — das zeigt deutlich, wie wichtig intelligente Datenverkehrsverwaltung und die Bündelung von Ressourcen sind.
Die Optimierung generativer KI-Modelle erfordert eine ausgewogene Berücksichtigung und Kombination mehrerer Faktoren.
Beim Modellbeschneiden werden redundante oder weniger wichtige Parameter aus dem Modell identifiziert und entfernt, um dessen Größe und Rechenleistungsbedarf zu reduzieren. Das Ziel besteht darin, ein kompakteres Modell bei gleichbleibender Leistung zu erstellen. Durch die Quantisierung werden der Speicherbedarf und die Rechenkomplexität von GenAI-Modellen verringert, indem numerische Werte mit geringerer Bitpräzision dargestellt werden, beispielsweise durch die Umwandlung von Gleitkommazahlen in Festkomma- oder Ganzzahldarstellungen mit geringerer Präzision. Dies kann zu einem geringeren Speicherbedarf und einer höheren Effizienz beim Bereitstellen und Speichern von Modellen führen.
Transferlernen ist eine Methode des maschinellen Lernens, bei der wir ein für eine Aufgabe trainiertes Modell anpassen, damit es eine verwandte Aufgabe übernimmt. So reduzieren wir den Trainingsaufwand an Zeit und Rechenressourcen deutlich, vor allem bei tiefen und komplexen Modellen. Transferlernen erleichtert die effiziente Wiederverwendung von Wissen und ermöglicht es Ihnen, generative KI-Modelle gezielt für spezielle Anwendungen zu optimieren, ohne hohe Rechenkapazitäten zu brauchen.
Durch die Verteilung des Modelltrainings und der Inferenz auf mehrere Prozessoren, Geräte oder Clouds werden das Modelltraining und das Benutzererlebnis durch die Nutzung paralleler Verarbeitungsfunktionen optimiert. Darüber hinaus kann die Anpassung der Modellarchitektur und des Trainingsprozesses zur Ausnutzung der individuellen Fähigkeiten der Hardware (beispielsweise der spezifischen CPU oder GPU, auf der das Modell ausgeführt wird) den Trainings- und Inferenzprozess optimieren und so die Leistung verbessern – insbesondere, wenn die Inferenz in der Nähe des Benutzers durchgeführt werden kann.
Generative KI hat das Potenzial, große Wettbewerbsvorteile zu verschaffen. Damit Unternehmen ihre Vorteile jedoch ohne Risiko voll ausschöpfen können, müssen sie die notwendigen Schritte unternehmen, um KI-Workloads in unterschiedlichen, verteilten Umgebungen zu optimieren und zu sichern. Dies erfordert nicht nur eine Verbesserung der Effizienz von KI-Workloads, sondern auch die Verwaltung komplexer Kubernetes-Ökosysteme, eine nahtlose und sichere Integration von APIs und eine effektive Verwaltung von Multi-Cloud-Netzwerken.
F5 optimiert die Leistung und Sicherheit moderner KI-Workloads und gewährleistet eine konsistente Verteilung und den Schutz generativer KI-Modelle und -Daten in der gesamten verteilten Anwendungsumgebung, einschließlich Rechenzentren, öffentlichen Clouds, privaten Clouds, Multi-Cloud, nativem Kubernetes und dem Edge. F5 liefert eine zugrunde liegende, einheitliche Datenstruktur, die das Trainieren, Verfeinern, Bereitstellen und Verwalten generativer KI-Modelle im großen Maßstab unterstützt, ein nahtloses Benutzererlebnis gewährleistet und Echtzeit-Entscheidungen in KI-gesteuerten Anwendungen unterstützt.
F5 bietet eine Reihe integrierter Lösungen zur Sicherheits-, Bereitstellungs- und Leistungsoptimierung, die die Komplexität der generativen KI reduzieren und gleichzeitig eine vorhersehbare Skalierung und Leistung mit zentraler Sichtbarkeit und Verwaltung über eine einzige Glasscheibe bieten.
Durch die Optimierung der Effizienz, Reduzierung der Latenz und Verbesserung der Reaktionszeiten helfen F5-Technologien Unternehmen dabei, die Vorteile der generativen KI sicher zu nutzen und gleichzeitig ein nahtloses Benutzererlebnis zu gewährleisten und die Flexibilität zu unterstützen, KI-Workloads überall einzusetzen.
LÖSUNGSÜBERSICHT
Verteilen, optimieren und sichern Sie Ihre KI-Workloads mit F5 ›