BLOG | BÜRO DES CTO

Kein „ein Modell, das alle beherrscht“ mit generativer KI

Lori MacVittie Miniaturbild
Lori MacVittie
Veröffentlicht am 25. Juni 2024

Den Schlagzeilen zufolge ist OpenAI das einzige generative KI-Spiel auf der Stadt. Es wird in jedem Gespräch über KI erwähnt, auch in diesem. Aber es ist nicht der einzige Dienst und auch nicht das einzige verfügbare Modell. 

Tatsächlich ist die Einführung generativer KI in Unternehmen nicht so homogen, wie die Schlagzeilen vermuten lassen.  

Unsere jüngsten Untersuchungen haben ergeben, dass Organisationen im Durchschnitt fast drei verschiedene Modelle verwenden. Der Grund für diese Wahl scheint in den Anwendungsfällen zu liegen. 

So ist es beispielsweise keine Überraschung, dass sich Sicherheitsoperationen als Anwendungsfall immer mehr Open-Source-Modellen zuwenden, die privat trainiert werden können, ohne dass man befürchten muss, Prozesse und vertrauliche Unternehmensdaten preiszugeben. Dasselbe gilt für die Inhaltserstellung, bei der häufig vertrauliche Daten mit einem Modell geteilt werden müssen. Ebenso wenig überraschend finden sich in Anwendungsfällen zur Workflow-Automatisierung gehostete Dienste von Microsoft, da viele Unternehmen sowohl vor Ort als auch in Azure eng mit Microsoft-Lösungen verbunden sind. 

Kein einzelnes Modell wird alle technischen und geschäftlichen Anforderungen für die wachsende Liste generativer KI für Unternehmensanwendungsfälle erfüllen. 

Dies führt zu einigen Herausforderungen bei der App-Bereitstellung, -Sicherheit und dem allgemeinen Betrieb, da unterschiedliche Modellauswahlen unterschiedliche Bereitstellungsmuster bedeuten. 

Neue KI-Bereitstellungsmuster

Es zeichnen sich drei grundlegende Bereitstellungsmuster ab. Der Hauptunterschied besteht in der betrieblichen Verantwortung für die Skalierung von Inferenzdiensten. In allen Mustern ist die Organisation für die Bereitstellung und Sicherheit der App verantwortlich.    

  1. SaaS-verwaltet . In einem SaaS-verwalteten Bereitstellungsmuster verwenden KI-Anwendungen APIs , um auf einen KI-verwalteten Dienst zuzugreifen, wie OpenAI ChatGPT. Die operative Verantwortung für die Skalierung liegt beim Anbieter.  
  2. Cloud-verwaltet . Über die Cloud verwaltete bereitgestellte Muster nutzen vom Cloud-Anbieter gehostete KI-Dienste. Der Zugriff auf diese Dienste erfolgt weiterhin über eine API, sie können jedoch entweder privat für das Unternehmen oder gemeinsam genutzt sein. Die KI-Apps selbst können sich auch in der öffentlichen Cloud oder vor Ort befinden. Wenn es sich um einen privaten Dienst handelt, übernimmt das Unternehmen die Verantwortung für die Skalierung der Inferenzdienste. Dies kann eine Herausforderung darstellen, da die meisten Organisationen nur wenig Erfahrung mit der Skalierung großer Sprachmodelle haben. Wenn der Dienst gemeinsam genutzt wird, übertragen die Organisationen die Verantwortung auf den Cloud-Anbieter, müssen im Rahmen ihrer Betriebsabläufe jedoch Faktoren wie Kontingente und tokenbasierte Kosten berücksichtigen. 
  3. Selbstverwaltet . Open-Source-Modelle werden höchstwahrscheinlich in einem selbstverwalteten Muster bereitgestellt, sowohl in der öffentlichen Cloud als auch vor Ort. Auf die Modelle kann über eine API oder direkt über eine Anwendung zugegriffen werden. In diesem Muster übernehmen Organisationen die volle Verantwortung für die Skalierung, Sicherung und Überwachung der Inferenzdienste. 

(Um tiefer in diese Muster einzutauchen, können Sie sich diesen Blog von Chris Hain ansehen)

Es gibt zahlreiche Anbieter, die Open-Source-Modelle hosten, um ein verwaltetes SaaS-Muster zu unterstützen, und viele Cloud-Anbieter, die Open Source auch als Dienst anbieten.

OpenAI-Modelle sind nicht nur in einem SaaS-verwalteten Muster über OpenAI verfügbar, sondern auch als Cloud-verwaltetes Muster über Microsoft. Mistral, ein beliebtes Open-Source-Modell, kann in allen drei Mustern eingesetzt werden. Aus diesem Grund betrachten wir den Anwendungsfall als primären Faktor für die Modellauswahl, da Unternehmen Modelle und Bereitstellungsmuster beliebig kombinieren können.

Organisationen stehen bereits unter Druck, da sie nicht nur Modelle trainieren, sondern auch betreiben und sichern müssen. Deshalb macht es für viele Organisationen mit begrenztem operativen Know-how am meisten Sinn, Modelle nach Anwendungsfall einzusetzen. Wenn Sie Ihre Ressourcen auf Anwendungsfälle konzentrieren, die aus Sicherheits- oder Datenschutzgründen nicht in geteilten Mustern genutzt werden können, erzielen Sie die besten Ergebnisse.   

Vorsicht vor operativer Kurzsichtigkeit

Seien Sie vorsichtig bei operativer Kurzsichtigkeit, die innerhalb einer Organisation zu Silos führen kann. Wir haben das schon beim Cloud Computing erlebt und werden es mit generativer KI im Unternehmen sicher erneut sehen. Wenn Sie die Gefahr erkennen, Betrieb und Sicherheit isoliert zu betrachten, können Sie die entstehende Komplexität und das Risiko vermeiden und strategisch Modelle und Bereitstellungsmuster wählen, die Ihre Ressourcen, Fähigkeiten und Budgets bestmöglich nutzen. 

Wir befinden uns noch in der Anfangsphase und bis Sie dies lesen, wird es zweifellos neue Anbieter und neue Modelle mit neuen Funktionen geben. Die Bereitstellungsmuster bleiben jedoch weitgehend gleich, was eine strategischere Planung im Hinblick auf den Betrieb ermöglicht – von den Budgets über die Personalausstattung bis hin zu den App-Diensten, die Sie benötigen, um die von Ihnen ausgewählten Modelle zu sichern und zu skalieren.