BLOG | BUREAU DU CTO

Un triumvirat centré sur les applications pour une gouvernance proactive de l’IA

Vignette de James Hendergart
James Hendergart
Publié le 16 septembre 2025

Innover, c’est une chose. Gérer en est une autre. Des chiffres préoccupants issus d’enquêtes montrent que les entreprises adoptent massivement l’IA générative, malgré des failles de gouvernance qui devraient pourtant les inciter à la prudence.

Selon l'enquête sur les agents IA de PWC datant de mai 2025, 79 % des entreprises ont adopté l'IA, et seulement 2 % n'envisagent pas d’utiliser l'IA agentique. Que ces agents possèdent vraiment des caractéristiques agentiques—comme la capacité d'élaborer des plans de travail, d'exécuter des actions en plusieurs étapes, d'évaluer les résultats et de s’ajuster eux-mêmes—ou qu’ils se contentent de diriger des requêtes ponctuelles vers un large modèle de langage (LLM), l’adoption reste très forte, et presque toutes ces entreprises prévoient d’augmenter leur budget IA cette année.

En nous basant sur nos propres recherches — qui utilisent un indice de préparation à l’IA pour évaluer la capacité opérationnelle à déployer, sécuriser et maintenir efficacement des systèmes d’IA — nous constatons que seulement 2 % des organisations sont pleinement prêtes à relever les défis liés à la conception, au déploiement et à l’exploitation de systèmes intégrant l’IA.

Pourtant, selon une étude d’EY, les équipes IT et de sécurité n'ont pas d'autre choix, puisqu’une majorité de dirigeants d’entreprise estiment qu’ils doivent adopter l’IA agentique cette année pour devancer leurs concurrents d’ici l’année prochaine. Si vous ralentissez suffisamment pour combler soigneusement les failles de sécurité et de gouvernance, vous serez davantage avancé et votre entreprise moins vulnérable en 2026 que celles qui les ignorent. Ces trois pratiques forment un trio indispensable pour limiter les risques liés à l’adoption de l’IA générative et agentique :

1. Protégez vos modèles

Il faut sécuriser les nouveautés, car chaque forme d’IA générative repose sur un ou plusieurs LLM. Vous ne pouvez pas simplement vous fier aux créateurs des modèles pour améliorer continuellement la précision, réduire les hallucinations et empêcher le jailbreaking. Vous devez investir dans des services d’invite et de modèles capables de détecter et d’arrêter de façon autonome les comportements indésirables. Par ailleurs, puisque toute entreprise utilisant un LLM en exploite en réalité plusieurs, vous devez obscurcir les applications via l’appel API d’inférence pour garantir leur disponibilité, gérer le routage, la montée en charge, et contrôler les coûts. 

2. Sécurisez vos données

Les données d’entreprise exposées aux modèles peuvent être nouvelles ou déjà connues de l’entreprise. Ce qui compte, c’est de les sécuriser, et cela ne se limite pas à protéger les données au repos ni à les crypter lors de leur circulation sur le réseau. Il faut aussi détecter et protéger toute donnée présente dans l’environnement privé de l’entreprise, sous quelque forme que ce soit, même si elle est utilisée par un service tiers autorisé ou une entité externe. Ne vous méprenez pas. La provenance ne constitue pas la priorité. C’est la sortie qui importe. 

3. Protégez vos agents

Les agents transforment le jeu en utilisant les LLM pour décider des actions à entreprendre afin d’atteindre un but final qu’ils définissent eux-mêmes. Pour agir, ils doivent obtenir une autorisation pour effectuer des tâches, accéder aux ressources, créer, modifier et supprimer des données. Vous devez les surveiller et les contrôler grâce à un mécanisme externe, suffisamment proche pour les observer et les évaluer efficacement. Deux approches majeures tiennent à être suivies de près au fur et à mesure de leur évolution dans les mois qui viennent : les cadres de régulation (comme MCP-Universe) et les cadres LLM-as-a-Judge (comme Microsoft LLM-as-a-Judge Framework).

Le premier établit la vérité terrain en réalisant des opérations très ciblées basées sur des tâches pour comparer les résultats des actions lancées par l’agent avec des actions séparées préalablement exécutées par un logiciel programmé explicitement. Sa force réside dans un domaine d’exemples de code qui ne cesse de croître, permettant de vérifier des faits variés comme la météo ou des événements historiques, en utilisant des sources présélectionnées et fiables. Il collecte ces informations, puis les compare comme vérité terrain aux résultats obtenus par un agent déployé.

Le second utilise un autre LLM, voire plusieurs, pour analyser le comportement d’un agent déployé et mesurer la qualité et la pertinence de ses résultats selon les critères définis par votre entreprise. Les deux solutions montrent leur potentiel, progressent rapidement et restent sous le contrôle de votre entreprise. Mieux encore, vous pouvez renforcer les deux par des contrôles humains lorsque cela est nécessaire.

Ce trio de contrôles sur les modèles, les données et les agents élimine les failles en cybersécurité et en gouvernance, qui exposeraient autrement votre entreprise aux nouveaux risques liés à l’IA générative et aux systèmes autonomes.

Pour mieux comprendre comment utiliser ces contrôles en tant que services d’infrastructure indépendants, consultez l’annonce récente de F5 sur CalypsoAI, le leader des solutions de défense, de red-team et de gouvernance pour les applications et agents IA.