BLOG | BUREAU DU CTO

Trois choses à savoir sur les applications d'IA

Miniature de Lori MacVittie
Lori MacVittie
Publié le 20 juin 2024

Il y a probablement plus de trois choses que vous devriez savoir, mais commençons par ces trois-là et partons de là, d'accord ? 

Tout d’abord, il est important de noter que l’IA est réelle. Oui, c'est surfait. Oui, des portefeuilles entiers sont « piratés par l’IA » de la même manière que tout est soudainement devenu un produit « cloud » il y a plus de dix ans. Mais c'est réel selon ceux qui savent, c'est-à-dire les décideurs de notre enquête la plus récente axée sur l'IA

Alors que la plupart des organisations (69 %) mènent des recherches sur la technologie et les cas d’utilisation, 43 % déclarent avoir mis en œuvre l’IA à grande échelle. C'est soit génératif, soit prédictif. 

Il est quelque peu déconcertant de constater que 47 % des entreprises qui mettent déjà en œuvre une forme d’IA n’ont aucune stratégie définie pour ce domaine. Si nous avons appris quelque chose de la ruée vers le cloud public, c’est que se lancer sans stratégie entraînera des problèmes à long terme. 

Pour vous aider à définir cette stratégie, en particulier lorsque vous essayez de comprendre les implications opérationnelles et de sécurité, nous avons dressé une liste de trois éléments à prendre en compte. 

1. Les applications d’IA sont des applications modernes

Cela ne devrait pas avoir besoin d’être dit, mais disons-le quand même. Les applications d’IA sont des applications modernes. Bien que le cœur d’une application d’IA soit le modèle, de nombreux autres composants (serveur d’inférence, sources de données, décodeurs, encodeurs, etc.) constituent une « application d’IA ». 

modèle de données de télémétrie

Ces composants sont généralement déployés en tant qu’applications modernes ; c’est-à-dire qu’ils exploitent Kubernetes et ses constructions pour l’évolutivité, la planification et même la sécurité. Étant donné que les différents composants ont des besoins en ressources différents (certaines charges de travail bénéficieront de l'accélération GPU et d'autres auront simplement besoin de processeurs classiques), le déploiement en tant qu'application moderne est le plus logique et permet une plus grande flexibilité pour garantir que chacune des charges de travail d'une application d'IA est déployée et mise à l'échelle de manière optimale en fonction de ses besoins informatiques spécifiques. 

Cela signifie que les applications d’IA sont confrontées aux mêmes défis que toute autre application moderne. Les leçons que vous avez tirées de la mise à l’échelle et de la sécurisation des applications modernes existantes vous aideront à faire de même pour les applications d’IA. 

Conclusion stratégique : Tirez parti des connaissances et des pratiques existantes en matière de livraison et de sécurité des applications, mais élargissez-les pour inclure des approches qui reconnaissent que différents composants des applications d'IA peuvent avoir des besoins en ressources différents, tels que l'accélération GPU pour les tâches gourmandes en calcul ou les ressources CPU pour les charges de travail moins gourmandes en calcul. Les déploiements d'applications modernes permettent une flexibilité dans l'allocation des ressources en fonction des exigences spécifiques de chaque composant, optimisant ainsi les performances et la rentabilité.

2. Les applications d’IA sont différentes des applications modernes

Oui, je sais que je viens de souligner le fait que « ce sont des applications modernes », mais il existe des différences qui ont un impact sur l’architecture, les opérations et la sécurité. 

Premièrement, les applications d’IA échangent des données non structurées. Ces invites n’ont aucune exigence de format, de longueur ou de type de données, et l’adoption enthousiaste des LLM multimodaux ne fait qu’ajouter au chaos qu’est une « demande ». Dans le sens où la plupart des applications d’IA encapsulent une invite et une réponse dans une charge utile JSON, je suppose que vous pourriez dire qu’elle est structurée, mais ce n’est pas le cas car la charge utile réelle est, eh bien, indéfinie. 

Deuxièmement, les applications d’IA communiquent presque exclusivement avec un modèle via une API. Cela signifie que les solutions de détection de robots qui utilisent « humain » ou « machine » comme critère de base pour l’accès ne seront pas aussi utiles. Les services de sécurité aidant à distinguer les « mauvais robots » des « bons robots » constitueront un élément important de toute stratégie d’IA. La dépendance aux API est également la raison pour laquelle, dans notre recherche annuelle , nous avons constaté que le principal service de sécurité prévu pour protéger les modèles d’IA est la sécurité des API. 

Enfin, les modèles d’interaction pour les applications d’IA sont souvent dynamiques, variables et imprévisibles. En général, les services de sécurité actuels surveillent les anomalies dans les taux de clics et de frappes de souris par page, car ils peuvent déduire le comportement des « robots » en fonction des écarts par rapport aux normes moyennes humaines établies. Cela ne fonctionne pas lorsque quelqu'un utilise une interface conversationnelle et peut taper, retaper et soumettre des questions de manière très irrégulière. Étant donné que de nombreuses solutions de sécurité reposent aujourd’hui sur l’analyse comportementale, y compris la sécurité des API, cela signifie que certains ajustements seront nécessaires.  

Conclusion stratégique : Vous aurez besoin de capacités de sécurité supplémentaires pour gérer correctement les applications d’IA. Repensez les approches de sécurité traditionnelles qui ne parviennent peut-être pas à saisir correctement les nuances des interactions conversationnelles. Explorez des approches innovantes telles que la surveillance en temps réel des modèles d’interaction et des mécanismes de contrôle d’accès adaptatifs basés sur des signaux contextuels. Reconnaître le rôle essentiel des API pour faciliter la communication avec les modèles d’IA. Investissez dans des solutions de sécurité API robustes pour vous protéger contre les accès non autorisés, les violations de données et les attaques malveillantes.

3. Différentes applications d’IA utiliseront différents modèles

À l’instar de la réalité future du multicloud, il est très peu probable que les organisations se standardisent sur un modèle d’IA unique. C’est parce que différents modèles peuvent être mieux adaptés à certains cas d’utilisation. 

C’est pourquoi nous ne sommes pas surpris d’apprendre que l’entreprise moyenne utilise déjà près de trois (2,9) modèles distincts, notamment des modèles open source et propriétaires. Lorsque nous examinons l’utilisation de modèles basés sur des cas d’utilisation, nous commençons à voir un modèle. Par exemple, dans les cas d’utilisation qui s’appuient fortement sur des données ou des idées d’entreprise sensibles (opérations de sécurité et création de contenu), nous observons des tendances significatives vers des modèles open source. D’autre part, en examinant un cas d’utilisation de l’automatisation, nous constatons que Microsoft gagne en utilisation, en grande partie en raison de sa capacité à s’intégrer aux outils et processus déjà utilisés dans de nombreuses organisations. 

Considérations relatives au modèle

Il est important de comprendre cela, car les pratiques, les outils et les technologies nécessaires pour fournir et sécuriser un modèle d’IA géré par SaaS sont différents de ceux d’un modèle d’IA géré par le cloud et de ceux d’un modèle d’IA autogéré. Bien qu’il existe certainement des similitudes, notamment en matière de sécurité, il existe des différences importantes qui devront être traitées pour chaque modèle de déploiement utilisé.  

Conclusion stratégique : Analysez les cas d’utilisation au sein de votre organisation et identifiez les modèles d’adoption de différents modèles d’IA. Tenez compte de facteurs tels que la sensibilité des données, les capacités d’intégration et l’alignement avec les outils et processus existants. Adaptez votre approche du déploiement et de la sécurité en fonction des caractéristiques spécifiques de chaque modèle de déploiement.

De nombreux éléments doivent être pris en compte pour la création, l’exploitation et la sécurisation des applications d’IA, notamment les nouvelles exigences en matière de sécurité et d’évolutivité des modèles. Mais bon nombre des leçons tirées du déploiement d’applications modernes au cœur, dans le cloud et en périphérie au cours de la dernière décennie seront utiles aux organisations. Les principaux défis restent les mêmes, et l’application du même niveau de rigueur à la mise à l’échelle et à la sécurisation des applications d’IA contribuera grandement à une mise en œuvre réussie. 

Mais négliger de tenir compte des différences et se lancer sans au moins une stratégie semi-formelle pour relever les défis de livraison et de sécurité ne peut que conduire à une déception à long terme.