BLOG | BUREAU DU CTO

Le contexte devient le nouveau périmètre : Gérez les agents d'IA grâce à une livraison programmable des applications

Miniature de Lori MacVittie
Lori MacVittie
Publié le 22 juillet 2025

Un mythe tenace et risqué circule dans l’AIOps : « MCP n’est qu’une API de plus. »

Bien sûr. Et SOAP n’était que du XML prétentieux.

Les architectures basées sur des agents, notamment celles construites sur le protocole de contexte de modèle (MCP), utilisent des blocs de contexte explicites transmis dans chaque requête. Il ne s’agit pas d’intuitions neuronales ni de « mémoire LLM ». C’est un contexte opérationnel structuré et sérialisé — imaginez du JSON, pas des ressentis — que nous transmettons à chaque appel pour permettre aux agents de suivre les objectifs, les rôles, les règles et l’état du processus.

Mais voici la réalité : le contexte évolue. Quand cela arrive, vos agents ne se contentent pas d’être perdus. Ils commettent des erreurs avec assurance, deviennent imprévisibles en action, voire carrément dangereux.

Le problème, c’est que ceux qui explorent déjà et déploient des agents IA ont une longueur d’avance. Ils sont effectivement en avance. Nos dernières recherches montrent que 9 % ont déjà déployé des agents IA en production, 29 % ont défini une stratégie claire pour avancer, et 50 % sont en phase initiale d’exploration. Seuls 11 % ne considèrent même pas l’utilisation des agents IA.

Ils avancent vite. Plus vite que le secteur.

Vous ne disposez d’aucun outil de conformité efficace, ni de sécurité ni de bonnes pratiques. Vous trouvez quasiment aucune solution existante pour gérer les risques liés à chaque nouvelle technologie.

Sauf pour la programmabilité. C’est ici que votre plateforme de gestion et de sécurité des applications entre en jeu. Pas comme un canal passif, mais comme un gardien programmable assurant l’hygiène cognitive et la rigueur contextuelle.

Le véritable déroulement de la transmission du contexte

Le contexte n’est pas une abstraction. Il se trouve directement dans la charge utile. Voici à quoi ressemble une requête MCP en conditions réelles :

POST /agent/v1/invoke HTTP/1.1

Hôte : agentmesh.internal

Autorisation : Bearer xyz123

Type de contenu : application/json

Version X-MCP : 1.0

{

"contexte": {

    "utilisateur": { ... },

    "objectif": "...",

    "prior_messages": [ ... ],

    "task_state": { ... },

    "sécurité": { ... }

  },

"input": { "prompt": "Visualisez-le maintenant avec un graphique rapide." }

 }

Ce bloc de contexte est indispensable. Il représente la mémoire active de l’agent. Il rassemble tout ce que l’agent « sait » et chaque hypothèse qui guidera ses actions. Chaque étape le transmet tel quel : sans compression, parfois sans vérification, et presque toujours de plus en plus obsolète au fil du temps.

Comment le contexte dérive (et pourquoi cela compte)

Ce bagage crée en fin de compte une dérive de contexte. La dérive survient lorsque :

  • Les anciens objectifs et l’état des tâches restent après que vous êtes passé à autre chose.
  • Les messages précédents s'accumulent, alourdissant les requêtes et perturbant les agents.
  • Les balises de sécurité persistent là où elles n'ont pas leur place.
  • Plusieurs agents mettent à jour le même thread sans nettoyer les éléments superflus.

Lorsque l'agent n°4 prend le relais, il prend des décisions basées sur des instructions dépassées, des contrôles d’accès obsolètes et des « objectifs » que plus personne ne considère. Les agents ne se plaignent jamais. Ils font simplement des erreurs avec assurance et passent le chaos à la prochaine étape.

Programmabilité : Le gestionnaire de contexte dont vous avez vraiment besoin

Si vous réduisez encore votre plateforme de gestion du trafic à un simple répartiteur de charge, félicitations. Vous jouez aux dames alors que tous les autres jouent aux échecs.

Dans les architectures agentiques, la livraison programmable des applications est la seule couche qui offre :

  • Visibilité totale sur chaque requête
  • Le pouvoir d'inspecter, de modifier, de bloquer ou de purifier le contexte
  • Ne dépend d’aucun avis ni souvenir d’un agent

Troncature du contexte en edge computing

Ne chargez pas les agents avec toute l’histoire à chaque requête.

  • Réduisez prior_messages aux N derniers échanges.
  • Faites expirer automatiquement les objectifs selon le temps ou un changement d’état.
  • Abandonnez task_state lorsque l’intention change de continuation à nouvelle tâche.

Vous imposez maintenant des limites de mémoire et une discipline cognitive avant même que l’agent ne traite les données.

Classification et application des politiques

Si votre bloc de contexte indique security.classification = confidential mais que vous vous apprêtez à utiliser une API publique de synthèse, vous devez déployer une règle programmable à la périphérie pour bloquer, censurer ou masquer les champs sensibles et vérifier l’étendue des accès à chaque requête. Les grands modèles de langage (LLM) ne contesteront pas vos règles ; ils risquent simplement de divulguer des informations.

Détection de déviation d’intention

Un utilisateur est-il passé de « résumer les indicateurs trimestriels » à « créer une présentation » ? Il faut réinitialiser le contexte, pas simplement l'accumuler. Quand l’intention de la demande change mais que le contexte contient encore d’anciennes finalités et l’état des tâches, supprimez-le et repartez à zéro. C’est ainsi que vous évitez de résoudre un problème d’hier avec des données d’aujourd’hui.

Télémétrie et suivi de la dérive

Votre couche de prestation d’application doit suivre :

  • Évolution des tailles des jetons dans les blocs de contexte
  • Taux de croissance des messages précédents
  • Modèles de discordance entre objectifs et tâches par agent

Vous repérez ainsi les gonflements et dérives contextuelles avant qu’ils ne deviennent ingérables. La surveillance vous fournit des réponses claires lorsque la direction s’étonne du comportement sûr de lui de vos « agents autonomes ».

Vous avez besoin d'un gestionnaire de contexte, pas seulement d'un pare-feu

Les LLM absorbent volontiers tout le contexte que vous leur fournissez, ce qui peut vite devenir un cauchemar si vous n’y prêtez pas attention. Les agents ne vous alertent jamais lorsque le contexte dévie, que les objectifs s’essoufflent ou que l’historique des tâches devient ingérable. Votre couche de prestation programmable doit non seulement intervenir, mais elle le fera.

C’est la seule couche neutre qui applique les politiques avec une visibilité complète.

À l’ère de l’intelligence artificielle agentique, votre plateforme de livraison d’applications ne se limite pas à gérer le routage du trafic. Elle devient votre pare-feu sémantique, votre garant de conformité, et votre dernier rempart pour empêcher que les agents ne se prennent pour des menteurs impunissants avec un accès root.

Si vous laissez la dérive et le gonflement prendre le dessus, c’est vous qui perdez. Vous perdez non seulement le contrôle, mais aussi la confiance dans toute votre infrastructure IA.