BLOG | BUREAU DU CTO

Résoudre les problèmes de sécurité et de fiabilité de l'IA générative

Miniature de Lori MacVittie
Lori MacVittie
Publié le 28 novembre 2023

Tout le monde se précipite sur la mine d’or qu’est l’IA générative. Du moins, c’est ce qu’il semble à première vue. De nos jours, il n’y a pratiquement aucun communiqué de presse qui arrive dans ma boîte de réception qui ne mentionne pas d’une manière ou d’une autre l’IA générative.

Mais en creusant plus profondément, vous réaliserez rapidement que l’impact le plus important de l’IA générative à l’heure actuelle concerne le marketing.

Ce que nous voyons actuellement, c’est que les gens s’emparent de fruits à portée de main. Toute capacité facile à « ajouter » sans développement ni recherche importants est ajoutée avec de la superglue et expédiée.

La plupart des entreprises, qu’elles soient du secteur technologique, manufacturier ou de la santé, adoptent une approche plus mesurée. Une approche plus stratégique , si je puis dire. Et comme c'est mon blog, je peux.

Les raisons pour lesquelles il faut être plus critique sur la façon dont on utilise l’IA générative sont bien connues, si l’on en juge par une récente enquête ExtraHop . Les principales préoccupations se divisent en deux camps : la fiabilité et la sécurité.

Les plus grandes préoccupations concernant l’utilisation de graphiques IA génératifs.

Dans le domaine de l’IA générative, la fiabilité est une question de précision et de confiance. Je dois pouvoir être sûr que les réponses que je reçois (qu’il s’agisse de code, de configuration ou de contenu) sont exactes et correctes, et ne sont pas pleines de préjugés.

Dans le domaine de la sécurité, nous avons les mêmes préoccupations que nous avons toujours eues, et bien plus encore. Il ne s’agit plus seulement de l’exposition d’informations personnelles identifiables des clients et des employés, mais également de secrets commerciaux et de propriété intellectuelle divulgués dans le monde entier. 

Résoudre les risques liés à l'IA générative

Résoudre les problèmes de fiabilité demande beaucoup de travail car ils nécessitent soit (a) beaucoup de formation et de réglages précis, soit (b) une approche architecturale dans laquelle l'IA générative n'est qu'une partie de la solution et s'appuie sur des techniques avancées d'ingénierie rapide pour valider ses propres réponses. Les deux nécessitent du temps et de l’argent, et c’est pourquoi nous ne voyons pas de solutions d’IA génératives façonner les marchés. Encore. Cela viendra, mais cela prendra du temps. 

Le défi de la sécurité est à la fois plus facile et plus difficile à relever. Résoudre le défi de révéler des secrets commerciaux ou de la propriété intellectuelle signifie soit (a) déployer et exploiter vos propres instances d’un LLM – et tout ce que cela implique – soit (b) concevoir une architecture autour du problème. Cela signifie développer des agents GPT qui utilisent les capacités génératives d'un LLM comme outil mais pas comme source principale. 

Par exemple, il est facile d’oublier que les données que vous collectez peuvent être d’une importance stratégique. Le modèle que j’utilise pour suivre les activités du marché peut sembler anodin, mais il révèle une grande partie de la façon dont F5 perçoit le marché et envisage d’y être compétitif. Cela revêt une importance stratégique. Ce n’est donc pas quelque chose que vous souhaitez confier à un LLM public pour analyse. Ajoutez à cela le fait que l’IA générative est horrible – et je dis bien horrible – pour analyser les données tabulaires, et cela semble être un mauvais cas d’utilisation. 

Mais en exploitant les fonctions d’OpenAI pour profiter des capacités d’analyse de données de Python, ce n’est pas du tout une mauvaise idée. Cela prend du temps et des efforts de développement car vous devez créer un agent GPT au lieu de simplement transmettre les données à OpenAI pour analyse, mais cela résout à la fois le défi de la fiabilité et de la sécurité. 

En cas d’exposition accidentelle d’informations personnelles identifiables d’un client ou d’un employé, nous voyons déjà une solution plus simple, celle du masquage des données.

Masquage des données pour l'IA générative

Le masquage des données était déjà en plein essor dans le développement, car il permettait aux développeurs de tester avec des données réelles sans risquer d’exposer des données sensibles. Mais il est également applicable à l’utilisation de l’IA générative comme moyen de prévenir l’exposition. Il existe déjà un certain nombre de bibliothèques et d’outils open source qui facilitent l’intégration car, eh bien, la plupart des IA génératives sont pilotées par des API et les API sont faciles à intercepter et à inspecter les demandes de données sensibles. 

L’utilisation du masquage des données pour résoudre les problèmes de sécurité de l’IA générative fonctionne à la fois dans le développement et la production, garantissant que les données sensibles ne sont pas exposées tout au long du cycle de vie de l’application. 

Il est certain que le masquage des données était en hausse avant que l’IA générative n’apparaisse et ne prenne le pas sur toutes les autres technologies. Mais l’IA générative est susceptible de s’avérer un catalyseur pour les capacités de masquage des données dans le domaine de la livraison et de la sécurité des applications ainsi que dans le développement d’applications.

Découvrez comment les solutions F5 optimisent et protègent les applications basées sur l'IA ›