BLOG | BÜRO DES CTO

Kein „ein Modell, das alle beherrscht“ mit generativer KI

Lori MacVittie Miniaturbild
Lori MacVittie
Veröffentlicht am 25. Juni 2024

Den Schlagzeilen zufolge ist OpenAI das einzige generative KI-Spiel auf der Stadt. Es wird in jedem Gespräch über KI erwähnt, auch in diesem. Aber es ist nicht der einzige Dienst und auch nicht das einzige verfügbare Modell. 

Tatsächlich ist die Einführung generativer KI in Unternehmen nicht so homogen, wie die Schlagzeilen vermuten lassen.  

Unsere jüngsten Untersuchungen haben ergeben, dass Organisationen im Durchschnitt fast drei verschiedene Modelle verwenden. Der Grund für diese Wahl scheint in den Anwendungsfällen zu liegen. 

So ist es beispielsweise keine Überraschung, dass sich Sicherheitsoperationen als Anwendungsfall immer mehr Open-Source-Modellen zuwenden, die privat trainiert werden können, ohne dass man befürchten muss, Prozesse und vertrauliche Unternehmensdaten preiszugeben. Dasselbe gilt für die Inhaltserstellung, bei der häufig vertrauliche Daten mit einem Modell geteilt werden müssen. Ebenso wenig überraschend finden sich in Anwendungsfällen zur Workflow-Automatisierung gehostete Dienste von Microsoft, da viele Unternehmen sowohl vor Ort als auch in Azure eng mit Microsoft-Lösungen verbunden sind. 

Kein einzelnes Modell wird alle technischen und geschäftlichen Anforderungen für die wachsende Liste generativer KI für Unternehmensanwendungsfälle erfüllen. 

Dies führt zu einigen Herausforderungen bei der App-Bereitstellung, -Sicherheit und dem allgemeinen Betrieb, da unterschiedliche Modellauswahlen unterschiedliche Bereitstellungsmuster bedeuten. 

Neue KI-Bereitstellungsmuster

Es zeichnen sich drei grundlegende Bereitstellungsmuster ab. Der Hauptunterschied besteht in der betrieblichen Verantwortung für die Skalierung von Inferenzdiensten. In allen Mustern ist die Organisation für die Bereitstellung und Sicherheit der App verantwortlich.    

  1. SaaS-verwaltet . In einem SaaS-verwalteten Bereitstellungsmuster verwenden KI-Anwendungen APIs , um auf einen KI-verwalteten Dienst zuzugreifen, wie OpenAI ChatGPT. Die operative Verantwortung für die Skalierung liegt beim Anbieter.  
  2. Cloud-verwaltet . Über die Cloud verwaltete bereitgestellte Muster nutzen vom Cloud-Anbieter gehostete KI-Dienste. Der Zugriff auf diese Dienste erfolgt weiterhin über eine API, sie können jedoch entweder privat für das Unternehmen oder gemeinsam genutzt sein. Die KI-Apps selbst können sich auch in der öffentlichen Cloud oder vor Ort befinden. Wenn es sich um einen privaten Dienst handelt, übernimmt das Unternehmen die Verantwortung für die Skalierung der Inferenzdienste. Dies kann eine Herausforderung darstellen, da die meisten Organisationen nur wenig Erfahrung mit der Skalierung großer Sprachmodelle haben. Wenn der Dienst gemeinsam genutzt wird, übertragen die Organisationen die Verantwortung auf den Cloud-Anbieter, müssen im Rahmen ihrer Betriebsabläufe jedoch Faktoren wie Kontingente und tokenbasierte Kosten berücksichtigen. 
  3. Selbstverwaltet . Open-Source-Modelle werden höchstwahrscheinlich in einem selbstverwalteten Muster bereitgestellt, sowohl in der öffentlichen Cloud als auch vor Ort. Auf die Modelle kann über eine API oder direkt über eine Anwendung zugegriffen werden. In diesem Muster übernehmen Organisationen die volle Verantwortung für die Skalierung, Sicherung und Überwachung der Inferenzdienste. 

(Um tiefer in diese Muster einzutauchen, können Sie sich diesen Blog von Chris Hain ansehen)

Es gibt zahlreiche Anbieter, die Open-Source-Modelle hosten, um ein verwaltetes SaaS-Muster zu unterstützen, und viele Cloud-Anbieter, die Open Source auch als Dienst anbieten.

OpenAI-Modelle sind nicht nur in einem SaaS-verwalteten Muster über OpenAI verfügbar, sondern auch als Cloud-verwaltetes Muster über Microsoft. Mistral, ein beliebtes Open-Source-Modell, kann in allen drei Mustern eingesetzt werden. Aus diesem Grund betrachten wir den Anwendungsfall als primären Faktor für die Modellauswahl, da Unternehmen Modelle und Bereitstellungsmuster beliebig kombinieren können.

Unternehmen spüren bereits jetzt den Druck hinsichtlich der Fähigkeiten, die sie benötigen, um Modelle nicht nur zu trainieren, sondern auch zu betreiben und zu sichern. Daher ist es für viele Organisationen mit begrenztem operativem Know-how am sinnvollsten, Modelle nach Anwendungsfall zu verteilen. Die besten Ergebnisse werden letztendlich erzielt, wenn die Ressourcen auf jene Anwendungsfälle konzentriert werden, die aus Sicherheits- oder Datenschutzgründen nicht in gemeinsamen Mustern bereitgestellt werden können.   

Vorsicht vor operativer Kurzsichtigkeit

Aber hüten Sie sich vor der Gefahr einer operativen Kurzsichtigkeit, die zu Silos innerhalb der Organisation führen kann. Dies haben wir beim Cloud-Computing bereits erlebt und werden wir zweifellos auch bei der generativen KI für Unternehmen wieder erleben. Da man sich jedoch der Gefahr bewusst ist, die mit der Isolierung von Betrieb und Sicherheit nach Modellen einhergeht, hofft man, dass Unternehmen die damit verbundene Komplexität und die Risiken vermeiden und strategisch Modelle und Bereitstellungsmuster auswählen können, die die betrieblichen Ressourcen, Fähigkeiten und Budgets optimal nutzen. 

Wir befinden uns noch in der Anfangsphase und bis Sie dies lesen, wird es zweifellos neue Anbieter und neue Modelle mit neuen Funktionen geben. Die Bereitstellungsmuster bleiben jedoch weitgehend gleich, was eine strategischere Planung im Hinblick auf den Betrieb ermöglicht – von den Budgets über die Personalausstattung bis hin zu den App-Diensten, die Sie benötigen, um die von Ihnen ausgewählten Modelle zu sichern und zu skalieren.