BLOG | BUREAU DU CTO

Trois choses à savoir sur les applications d'IA

Miniature de Lori MacVittie
Lori MacVittie
Publié le 20 juin 2024

Il y a probablement plus de trois choses que vous devriez savoir, mais commençons par ces trois-là et partons de là, d'accord ? 

Tout d’abord, il est important de noter que l’IA est réelle. Oui, c'est surfait. Oui, des portefeuilles entiers sont « piratés par l’IA » de la même manière que tout est soudainement devenu un produit « cloud » il y a plus de dix ans. Mais c'est réel selon ceux qui savent, c'est-à-dire les décideurs de notre enquête la plus récente axée sur l'IA

Alors que la plupart des organisations (69 %) mènent des recherches sur la technologie et les cas d’utilisation, 43 % déclarent avoir mis en œuvre l’IA à grande échelle. C'est soit génératif, soit prédictif. 

Il est quelque peu déconcertant de constater que 47 % des entreprises qui mettent déjà en œuvre une forme d’IA n’ont aucune stratégie définie pour ce domaine. Si nous avons appris quelque chose de la ruée vers le cloud public, c’est que se lancer sans stratégie entraînera des problèmes à long terme. 

Pour vous aider à définir cette stratégie, en particulier lorsque vous essayez de comprendre les implications opérationnelles et de sécurité, nous avons dressé une liste de trois éléments à prendre en compte. 

1. Les applications d’IA sont des applications modernes

Cela va de soi, mais nous allons le dire quand même. Les applications IA sont des applications modernes. Le modèle est au cœur d’une application IA, mais d’autres composants importants la constituent : serveur d’inférence, sources de données, décodeurs, encodeurs, etc. 

modèle de données de télémétrie

Ces composants s’appuient généralement sur Kubernetes et ses fonctionnalités pour assurer évolutivité, planification et sécurité, sous la forme d’applications modernes. Comme chaque composant a des besoins spécifiques en ressources — certains tirent parti de l’accélération GPU, d’autres se contentent de processeurs classiques — déployer ces charges de travail comme une application moderne offre la meilleure flexibilité. Vous garantissez ainsi un déploiement et une mise à l’échelle optimale pour chaque élément de votre application d’IA, selon ses exigences informatiques précises. 

Cela signifie que les applications d’IA sont confrontées aux mêmes défis que toute autre application moderne. Les leçons que vous avez tirées de la mise à l’échelle et de la sécurisation des applications modernes existantes vous aideront à faire de même pour les applications d’IA. 

Point stratégique à retenir : Exploitez vos connaissances et pratiques actuelles en matière de livraison et de sécurité des applications, tout en élargissant votre approche pour prendre en compte que les différents composants des applications d’IA ont des besoins variés, comme l’accélération GPU pour les tâches intensives en calcul ou les ressources CPU pour les charges moins gourmandes. Les déploiements d’applications modernes vous offrent la flexibilité d’allouer les ressources selon les exigences spécifiques de chaque composant, optimisant ainsi performance et coûts.

2. Les applications d’IA sont différentes des applications modernes

Oui, je sais que je viens de souligner le fait que « ce sont des applications modernes », mais il existe des différences qui ont un impact sur l’architecture, les opérations et la sécurité. 

Premièrement, les applications d’IA échangent des données non structurées. Ces invites n’ont aucune exigence de format, de longueur ou de type de données, et l’adoption enthousiaste des LLM multimodaux ne fait qu’ajouter au chaos qu’est une « demande ». Dans le sens où la plupart des applications d’IA encapsulent une invite et une réponse dans une charge utile JSON, je suppose que vous pourriez dire qu’elle est structurée, mais ce n’est pas le cas car la charge utile réelle est, eh bien, indéfinie. 

Deuxièmement, les applications d’IA communiquent presque exclusivement avec un modèle via une API. Cela signifie que les solutions de détection de robots qui utilisent « humain » ou « machine » comme critère de base pour l’accès ne seront pas aussi utiles. Les services de sécurité aidant à distinguer les « mauvais robots » des « bons robots » constitueront un élément important de toute stratégie d’IA. La dépendance aux API est également la raison pour laquelle, dans notre recherche annuelle , nous avons constaté que le principal service de sécurité prévu pour protéger les modèles d’IA est la sécurité des API. 

Enfin, les modèles d’interaction pour les applications d’IA sont souvent dynamiques, variables et imprévisibles. En général, les services de sécurité actuels surveillent les anomalies dans les taux de clics et de frappes de souris par page, car ils peuvent déduire le comportement des « robots » en fonction des écarts par rapport aux normes moyennes humaines établies. Cela ne fonctionne pas lorsque quelqu'un utilise une interface conversationnelle et peut taper, retaper et soumettre des questions de manière très irrégulière. Étant donné que de nombreuses solutions de sécurité reposent aujourd’hui sur l’analyse comportementale, y compris la sécurité des API, cela signifie que certains ajustements seront nécessaires.  

Conclusion stratégique : Vous aurez besoin de capacités de sécurité supplémentaires pour gérer correctement les applications d’IA. Repensez les approches de sécurité traditionnelles qui ne parviennent peut-être pas à saisir correctement les nuances des interactions conversationnelles. Explorez des approches innovantes telles que la surveillance en temps réel des modèles d’interaction et des mécanismes de contrôle d’accès adaptatifs basés sur des signaux contextuels. Reconnaître le rôle essentiel des API pour faciliter la communication avec les modèles d’IA. Investissez dans des solutions de sécurité API robustes pour vous protéger contre les accès non autorisés, les violations de données et les attaques malveillantes.

3. Différentes applications d’IA utiliseront différents modèles

À l’instar de la réalité future du multicloud, il est très peu probable que les organisations se standardisent sur un modèle d’IA unique. C’est parce que différents modèles peuvent être mieux adaptés à certains cas d’utilisation. 

C’est pourquoi il n’est pas étonnant d’apprendre que l’entreprise moyenne utilise déjà près de trois (2,9) modèles distincts, y compris open-source et propriétaires. Quand vous examinez l’usage des modèles selon les cas d’utilisation, un schéma se dessine. Par exemple, dans les cas d’utilisation qui reposent fortement sur des données ou des idées d’entreprise sensibles — opérations de sécurité et création de contenu — nous constatons une nette tendance vers les modèles open-source. En revanche, pour un cas d’usage lié à l’automatisation, Microsoft gagne du terrain, notamment grâce à sa capacité à s’intégrer aux outils et processus déjà employés dans de nombreuses organisations. 

Considérations relatives au modèle

Il est important de comprendre cela, car les pratiques, les outils et les technologies nécessaires pour fournir et sécuriser un modèle d’IA géré par SaaS sont différents de ceux d’un modèle d’IA géré par le cloud et de ceux d’un modèle d’IA autogéré. Bien qu’il existe certainement des similitudes, notamment en matière de sécurité, il existe des différences importantes qui devront être traitées pour chaque modèle de déploiement utilisé.  

Conclusion stratégique : Analysez les cas d’utilisation au sein de votre organisation et identifiez les modèles d’adoption de différents modèles d’IA. Tenez compte de facteurs tels que la sensibilité des données, les capacités d’intégration et l’alignement avec les outils et processus existants. Adaptez votre approche du déploiement et de la sécurité en fonction des caractéristiques spécifiques de chaque modèle de déploiement.

De nombreux éléments doivent être pris en compte pour la création, l’exploitation et la sécurisation des applications d’IA, notamment les nouvelles exigences en matière de sécurité et d’évolutivité des modèles. Mais bon nombre des leçons tirées du déploiement d’applications modernes au cœur, dans le cloud et en périphérie au cours de la dernière décennie seront utiles aux organisations. Les principaux défis restent les mêmes, et l’application du même niveau de rigueur à la mise à l’échelle et à la sécurisation des applications d’IA contribuera grandement à une mise en œuvre réussie. 

Mais négliger de tenir compte des différences et se lancer sans au moins une stratégie semi-formelle pour relever les défis de livraison et de sécurité ne peut que conduire à une déception à long terme.