BLOG | BUREAU DU CTO

Pas de « modèle unique pour tous les gouverner » avec l’IA générative

Miniature de Lori MacVittie
Lori MacVittie
Publié le 25 juin 2024

D'après les gros titres, OpenAI est le seul jeu d'IA générative en ville. On en parle dans toutes les conversations sur l’IA, même celle-ci. Mais ce n’est pas le seul service disponible, ni le seul modèle disponible. 

En fait, l’adoption de l’IA générative dans les entreprises n’est pas aussi homogène que les gros titres pourraient nous le faire croire.  

Nos recherches les plus récentes ont révélé que les organisations fonctionnent, en moyenne, avec près de trois modèles différents. La raison derrière ce choix semble être motivée par des cas d’utilisation. 

Par exemple, il n’est pas surprenant de voir les opérations de sécurité en tant que cas d’utilisation graviter vers des modèles open source, qui peuvent être formés en privé sans crainte d’exposer des processus et des données d’entreprise sensibles. Il en va de même pour la création de contenu, qui nécessite souvent le partage de données sensibles avec un modèle. Il n’est pas surprenant de voir des cas d’utilisation d’automatisation des flux de travail se tourner vers les services hébergés de Microsoft, car de nombreuses organisations sont étroitement liées aux solutions Microsoft sur site et dans Azure

Aucun modèle unique ne peut répondre à toutes les exigences techniques et commerciales de la liste croissante des cas d’utilisation de l’IA générative pour les entreprises. 

Cela entraîne certains défis en matière de livraison, de sécurité et d'opérations générales des applications, car différents choix de modèles impliquent des modèles de déploiement différents. 

Modèles de déploiement de l'IA émergents

Trois modèles de déploiement de base émergent. La principale différence réside dans la responsabilité opérationnelle de la mise à l’échelle des services d’inférence. Dans tous les modèles, l'organisation est responsable de la livraison et de la sécurité des applications.    

  1. SaaS géré . Dans un modèle de déploiement géré SaaS, les applications d'IA utilisent des API pour accéder à un service géré par l'IA, à la manière d'OpenAI ChatGPT. La responsabilité opérationnelle de l’échelle incombe au fournisseur.  
  2. Géré par le Cloud . Les modèles déployés gérés dans le cloud exploitent les services d'IA hébergés par les fournisseurs de cloud. Ces services sont toujours accessibles via une API mais peuvent être soit privés pour l’entreprise, soit partagés. Les applications d’IA elles-mêmes peuvent également se trouver dans le cloud public ou sur site. Lorsque le service est privé, l’entreprise assume la responsabilité de la mise à l’échelle des services d’inférence, ce qui peut constituer un défi car la plupart des organisations ont peu d’expérience dans la mise à l’échelle de grands modèles linguistiques. Lorsque le service est partagé, les organisations délèguent la responsabilité au fournisseur de cloud, mais doivent prendre en compte des facteurs tels que les quotas et les coûts basés sur les jetons dans le cadre de leurs opérations. 
  3. Autogéré . Les modèles open source sont plus susceptibles d’être déployés selon un modèle autogéré, à la fois dans le cloud public et sur site. Les modèles sont accessibles via API ou directement via une application. Dans ce modèle, les organisations assument l’entière responsabilité de la mise à l’échelle, de la sécurisation et de la surveillance des services d’inférence. 

(Pour une analyse plus approfondie de ces modèles, vous pouvez consulter ce blog de Chris Hain)

Il existe de nombreux fournisseurs qui hébergeront des modèles open source pour prendre en charge un modèle géré SaaS et de nombreux fournisseurs de cloud qui proposent également l'open source en tant que service.

Les modèles OpenAI ne sont pas seulement disponibles dans un modèle géré SaaS via OpenAI, mais également dans un modèle géré dans le cloud via Microsoft. Mistral, un modèle open source populaire, peut être déployé selon les trois modèles. C’est pourquoi nous considérons le cas d’utilisation comme le principal moteur du choix du modèle, étant donné que les entreprises peuvent choisir de combiner et d’associer, pour ainsi dire, les modèles et les modèles de déploiement.

Les organisations ressentent déjà la pression en ce qui concerne les compétences nécessaires non seulement pour former les modèles, mais aussi pour les exploiter et les sécuriser. Ainsi, la mise en correspondance des modèles par cas d'utilisation est la solution la plus judicieuse pour de nombreuses organisations disposant d'une expertise opérationnelle limitée. Concentrer les ressources sur les cas d’utilisation qui ne peuvent pas, pour des raisons de sécurité ou de confidentialité, être déployés dans des modèles partagés permettra finalement d’obtenir les meilleurs résultats.   

Attention à la myopie opérationnelle

Mais attention au danger de myopie opérationnelle, qui peut conduire à des silos au sein de l’organisation. Nous avons vu cela se produire avec le cloud computing et nous le verrons sans aucun doute à nouveau avec l’IA générative pour les entreprises. Mais conscients du danger d’isoler les opérations et la sécurité par modèle, on espère que les organisations pourront éviter la complexité et les risques que cela implique et choisir stratégiquement des modèles et des modèles de déploiement qui tirent le meilleur parti des ressources opérationnelles, des capacités et des budgets. 

Nous n’en sommes qu’aux premiers jours et au moment où vous lirez ces lignes, il y aura sans doute de nouveaux fournisseurs et de nouveaux modèles dotés de nouvelles capacités. Mais les modèles de déploiement resteront en grande partie les mêmes, ce qui permettra une planification plus stratégique des opérations, des budgets au personnel en passant par les services d'application dont vous aurez besoin pour sécuriser et faire évoluer les modèles que vous choisirez.