BLOG | BÜRO DES CTO

Drei Dinge, die Sie über KI-Anwendungen wissen sollten

Lori MacVittie Miniaturbild
Lori MacVittie
Veröffentlicht am 20. Juni 2024

Es gibt wahrscheinlich mehr als drei Dinge, die Sie wissen sollten, aber beginnen wir mit diesen drei und machen von dort aus weiter, einverstanden? 

Zunächst ist es wichtig festzustellen, dass KI real ist. Ja, es wird überbewertet. Ja, ganze Portfolios werden „KI-gewaschen“, so wie vor über einem Jahrzehnt plötzlich alles zu einem „Cloud“-Produkt wurde. Aber laut den Leuten, die es wissen – nämlich den Entscheidungsträgern unserer jüngsten Umfrage zum Thema KI – ist es real. 

Während die meisten Organisationen (69 %) Forschung zu Technologien und Anwendungsfällen betreiben, geben 43 % an, KI in großem Umfang implementiert zu haben. Das ist entweder generativ oder prädiktiv. 

Etwas beunruhigend ist die Feststellung, dass 47 % derjenigen, die bereits irgendeine Art von KI implementieren, keine – überhaupt keine – definierte Strategie für KI haben. Wenn wir aus dem Ansturm auf die öffentliche Cloud etwas gelernt haben, dann, dass ein Einstieg ohne Strategie später zu Problemen führen wird. 

Um Ihnen bei der Festlegung dieser Strategie zu helfen – insbesondere beim Verständnis der betrieblichen und sicherheitsrelevanten Auswirkungen – haben wir eine Liste mit drei Punkten zusammengestellt, die Sie berücksichtigen sollten. 

1. KI-Anwendungen sind moderne Anwendungen

Eigentlich muss es nicht gesagt werden, aber sagen wir es trotzdem. KI-Anwendungen sind moderne Anwendungen. Während das Modell den Kern einer KI-Anwendung bildet, gibt es viele weitere Komponenten – Inferenzserver, Datenquellen, Decoder, Encoder usw. –, die eine „KI-Anwendung“ ausmachen. 

Telemetrie-Datenmodell

Diese Komponenten werden normalerweise als moderne Anwendungen bereitgestellt, das heißt, sie nutzen Kubernetes und seine Konstrukte für Skalierbarkeit, Planung und sogar Sicherheit. Da unterschiedliche Komponenten unterschiedliche Ressourcenanforderungen haben – manche Workloads profitieren von einer GPU-Beschleunigung, andere benötigen lediglich herkömmliche CPUs – ist die Bereitstellung als moderne Anwendung am sinnvollsten und ermöglicht mehr Flexibilität bei der Gewährleistung, dass jede der Workloads in einer KI-Anwendung basierend auf ihren spezifischen Rechenleistungsanforderungen optimal bereitgestellt und skaliert wird. 

Dies bedeutet, dass KI-Anwendungen mit vielen der gleichen Herausforderungen konfrontiert sind wie jede andere moderne Anwendung. Die Erkenntnisse, die Sie aus der Skalierung und Sicherung vorhandener moderner Anwendungen gewonnen haben, werden Ihnen dabei helfen, dasselbe für KI-Anwendungen zu tun. 

Strategische Erkenntnis: Nutzen Sie vorhandenes Wissen und vorhandene Praktiken für die Anwendungsbereitstellung und -sicherheit, erweitern Sie diese jedoch um Ansätze, die berücksichtigen, dass verschiedene Komponenten von KI-Anwendungen unterschiedliche Ressourcenanforderungen haben können, wie etwa GPU-Beschleunigung für rechenintensive Aufgaben oder CPU-Ressourcen für weniger rechenintensive Workloads. Moderne Anwendungsbereitstellungen ermöglichen eine flexible Ressourcenzuweisung auf Grundlage der spezifischen Anforderungen der einzelnen Komponenten und sorgen so für eine Optimierung von Leistung und Kosteneffizienz.

2. KI-Anwendungen unterscheiden sich von modernen Anwendungen

Ja, ich weiß, ich habe gerade betont, dass es sich um „moderne Anwendungen“ handelt, aber es gibt Unterschiede, die sich auf Architektur, Betrieb und Sicherheit auswirken. 

Erstens tauschen KI-Anwendungen unstrukturierte Daten aus. Für diese Eingabeaufforderungen gelten keine Anforderungen an Format, Länge oder Datentyp, und die eifrige Einführung multimodaler LLMs trägt nur zum Chaos bei, das eine „Anfrage“ darstellt. Da die meisten KI-Anwendungen eine Eingabeaufforderung und eine Antwort in eine JSON-Nutzlast verpacken, könnte man wohl sagen, dass es strukturiert ist. Das ist es aber nicht, da die eigentliche Nutzlast, nun ja, undefiniert ist. 

Zweitens kommunizieren KI-Anwendungen fast ausschließlich über eine API mit einem Modell. Das bedeutet, dass Bot-Erkennungslösungen, die „Mensch“ oder „Maschine“ als Basiskriterium für den Zugriff verwenden, nicht so hilfreich sein werden. Sicherheitsdienste, die dabei helfen, „schlechte Bots“ von „guten Bots“ zu unterscheiden, werden ein wichtiger Teil jeder KI-Strategie sein. Die Abhängigkeit von APIs ist auch der Grund, warum wir in unserer jährlichen Untersuchung herausfanden, dass API-Sicherheit der wichtigste geplante Sicherheitsdienst zum Schutz von KI-Modellen ist. 

Schließlich sind Interaktionsmuster bei KI-Anwendungen oft dynamisch, variabel und unvorhersehbar. Heutzutage achten Sicherheitsdienste grundsätzlich auf Anomalien bei der Mausklick- und Tipprate pro Seite, da sie aufgrund von Abweichungen von etablierten menschlichen Durchschnittswerten auf „Bot“-Verhalten schließen können. Dies funktioniert nicht, wenn jemand eine Konversationsschnittstelle verwendet und möglicherweise in sehr unregelmäßigen Abständen Fragen eintippt, neu eintippt und übermittelt. Angesichts der Tatsache, dass viele heutige Sicherheitslösungen – einschließlich API-Sicherheit – auf Verhaltensanalysen basieren, sind einige Anpassungen erforderlich.  

Strategische Erkenntnis: Sie benötigen zusätzliche Sicherheitsfunktionen, um KI-Anwendungen ordnungsgemäß zu verwalten. Überdenken Sie traditionelle Sicherheitsansätze, die die Nuancen von Gesprächsinteraktionen möglicherweise nicht ausreichend erfassen. Erkunden Sie innovative Ansätze wie die Echtzeitüberwachung von Interaktionsmustern und adaptive Zugriffskontrollmechanismen auf der Grundlage kontextbezogener Hinweise. Erkennen Sie die entscheidende Rolle von APIs bei der Erleichterung der Kommunikation mit KI-Modellen. Investieren Sie in robuste API-Sicherheitslösungen zum Schutz vor unbefugtem Zugriff, Datenschutzverletzungen und böswilligen Angriffen.

3. Verschiedene KI-Anwendungen verwenden unterschiedliche Modelle

Angesichts der künftigen Realität der Multicloud ist es höchst unwahrscheinlich, dass sich Unternehmen auf ein einziges KI-Modell als Standard festlegen. Das liegt daran, dass für bestimmte Anwendungsfälle unterschiedliche Modelle besser geeignet sein können. 

Deshalb überrascht es uns nicht, dass das durchschnittliche Unternehmen bereits fast drei (2,9) verschiedene Modelle verwendet, darunter sowohl Open-Source- als auch proprietäre Modelle. Wenn wir uns die Verwendung von Modellen auf der Grundlage von Anwendungsfällen ansehen, erkennen wir ein Muster. Beispielsweise sehen wir in Anwendungsfällen, die in hohem Maße auf vertraulichen Unternehmensdaten oder -ideen basieren – Sicherheitsoperationen und Inhaltserstellung – einen deutlichen Trend zu Open-Source-Modellen. Wenn wir uns hingegen einen Anwendungsfall für die Automatisierung ansehen, sehen wir, dass Microsoft zunehmend zum Einsatz kommt, vor allem aufgrund seiner Fähigkeit, sich in die Tools und Prozesse zu integrieren, die in vielen Organisationen bereits verwendet werden. 

Überlegungen zum Modell

Dies ist wichtig zu verstehen, da sich die Praktiken, Tools und Technologien, die zum Bereitstellen und Sichern eines SaaS-verwalteten KI-Modells erforderlich sind, von denen eines Cloud-verwalteten KI-Modells und denen eines selbstverwalteten KI-Modells unterscheiden. Zwar gibt es sicherlich Ähnlichkeiten – insbesondere in Bezug auf die Sicherheit –, aber es gibt auch erhebliche Unterschiede, die bei jedem verwendeten Bereitstellungsmuster berücksichtigt werden müssen.  

Strategische Erkenntnis: Analysieren Sie die Anwendungsfälle in Ihrer Organisation und identifizieren Sie Muster bei der Einführung verschiedener KI-Modelle. Berücksichtigen Sie Faktoren wie Datensensibilität, Integrationsmöglichkeiten und Abstimmung mit vorhandenen Tools und Prozessen. Passen Sie Ihren Bereitstellungs- und Sicherheitsansatz anhand der spezifischen Merkmale jedes Bereitstellungsmusters an.

Beim Erstellen, Betreiben und Sichern von KI-Anwendungen müssen viele Aspekte berücksichtigt werden. Dazu zählen nicht zuletzt die neuen Anforderungen an die Modellsicherheit und Skalierbarkeit. Doch viele der Erkenntnisse, die wir im letzten Jahrzehnt aus der Bereitstellung moderner Anwendungen im Kern, in der Cloud und am Edge gewonnen haben, werden den Unternehmen von Nutzen sein. Die zentralen Herausforderungen bleiben dieselben. Und wenn wir bei der Skalierung und Sicherung von KI-Anwendungen die gleiche Sorgfalt walten lassen, werden wir einen großen Beitrag zu einer erfolgreichen Implementierung leisten. 

Aber wenn man die Unterschiede außer Acht lässt und sich ohne zumindest eine halbwegs formelle Strategie zur Bewältigung der Liefer- und Sicherheitsherausforderungen in die Sache einlässt, wird man auf lange Sicht zwangsläufig enttäuscht sein.