BLOG | BUREAU DU CTO

Les agents IA déplacent la prise de décision vers les niveaux supérieurs

Miniature de Lori MacVittie
Lori MacVittie
Publié le 10 juillet 2025

Vous connaissez ce moment où vous comprenez que l’architecture que vous avez peaufinée pendant dix ans va être balayée par une nouveauté qui n’existait même pas il y a deux ans ?

Bienvenue à l’ère des architectures agent.

Ce ne sont pas vos scripts d'automatisation habituels ni des simples encapsulations d'IA. Les agents agissent par objectifs, sont génératifs et deviennent de plus en plus autonomes. Ils ne se contentent pas d'appeler des API : ils s'y frayent leur propre chemin. Le clou du spectacle ? Ils intègrent leur propre politique.

Chaque requête qu’un agent envoie peut inclure :

  • En-têtes d’intention (X-Goal, X-Context, X-Route-Preference)
  • Instructions de secours adaptées à la sensibilité réelle des SLA
  • Un rappel de ce qui n’a pas marché la dernière fois
  • Quelques signes qui définissent le succès (indice : ce n’est pas « 200 OK »)
  • Vous assistez à une prise de décision en temps réel. Ce n’est pas une orchestration centralisée et planifiée à l’avance. Nous déléguons les actions à l’exécution, ce qui va transformer la façon dont fonctionne l’infrastructure.

    Pourquoi cela compte, et plus vite que vous ne l’imaginez

    Pour l’instant, la plupart des systèmes en entreprise ne subissent pas de résistances. Les premiers agents se limitent encore à des chatbots, copilotes ou outils isolés d’amélioration de productivité.

    Mais dès qu’ils interviennent dans des processus métier (comme la résolution de commandes, le traitement des réclamations, le triage, la réalisation), vous les voyez interagir avec des systèmes réels. Cela implique :

    • L'infrastructure doit interpréter la logique portée par l'agent
    • Les passerelles doivent analyser bien plus que les JWT et les chemins de données
    • Les équilibreurs de charge doivent arrêter de chercher la « vitesse maximale » pour se concentrer sur la meilleure adaptation à la tâche à accomplir

    Nous ne sommes pas encore en crise. Mais cela se profile. Quand ce moment arrivera, le problème ne sera pas un manque de bande passante. Le vrai enjeu sera le décalage entre les décisions des agents et la gestion du trafic par l'infrastructure.

    La transition : De l'application à la mise en œuvre

    L’idée clé de l’architecture est que les agents anticipent les décisions en remontant dans la hiérarchie.

    La requête agit comme le plan de contrôle.

    Il ne demande pas à l'infrastructure : « Que dois-tu faire ? » Il lui indique : « Voilà ce dont j'ai besoin. Voici comment je veux que tu agisses. Maintenant, exécute.»

    Si vos systèmes traitent cela comme une requête classique, un simple GET ou POST de plus, alors la logique de secours va se heurter, les tentatives vont se chevaucher, et les performances de vos agents vont chuter pour des raisons invisibles dans vos tableaux de bord.

    Ce n’est pas que l’infrastructure ait failli. C’est parce qu’elle ne prêtait pas attention.

    Pourquoi nous en parlons

    Ce changement dépasse la théorie ; il prend forme dans des cadres concrets. Les initiatives comme le protocole de contexte de modèle (MCP), les modèles de communication agent-à-agent (A2A) et les premiers travaux sur le routage des tâches encadré par des politiques confirment cette dynamique :

    • MCP intègre directement dans la charge utile de la requête le contexte complet : objectifs, contraintes, et options de repli.
    • Les protocoles A2A vous permettent de coordonner les tâches entre agents et de déléguer les décisions en temps réel, sans chef d’orchestre central.
    • La délégation des tâches à l'exécution via des métadonnées structurées permet à l'infrastructure d'interpréter—sans décider—au moment de l'exécution.

    Ils diffèrent par leur syntaxe, leur structure et leur niveau d’abstraction, mais conduisent tous au même résultat architectural : la politique intégrée à la charge utile et le but inscrit dans la requête.

    Dès que la requête intègre la logique, l’infrastructure doit s’adapter ou se réduire à un simple canal de transmission de données.

    Ce que vous pouvez faire dès maintenant avant que cela ne devienne un problème

    Ce n’est pas une question de tout démolir et remplacer. Nous vous aidons à anticiper la transition avant qu’elle ne s’impose. Commencez par ici :

    1. Capturer le contexte
      Enregistrez X-Intent, X-Task-Profile ainsi que toutes les métadonnées pouvant révéler les objectifs de l'agent. Si votre observabilité s'arrête au niveau de l'URI, vous êtes déjà dépassé.
    2. Pensez en termes d’« aptitude à la tâche », pas seulement de « disponibilité »
      Un backend en fonctionnement ne garantit pas qu’il réponde vraiment aux exigences. Commencez à tester des modèles de santé intégrant SLA, seuils de latence et objectifs.
    3. Optimisez vos stratégies
      Les plateformes existantes de livraison et de sécurité applicative intègrent des couches de script. Exploitez-les. Commencez à analyser les en-têtes d’intention. Adaptez les règles de routage selon les objectifs des requêtes, pas seulement leur chemin de service.
    4. Planifiez une application adaptative
      Au lieu de définir une logique de secours dans un fichier de config statique, explorez comment l’infrastructure peut appliquer directement les instructions de secours intégrées à la requête.
    5. Construisez une boucle de rétroaction
      Si les agents redirigent le trafic selon les performances passées, vous devez en faire partie. Renseignez vos systèmes de gestion du trafic et de santé avec le contexte des résultats.

    Dernière réflexion : Nous ne vous remplaçons pas, nous vous redéployons

    Dans une architecture pilotée par agents, l'infrastructure reste essentielle. Mais elle change de rôle. Elle ne prend plus les décisions, elle les met en œuvre de manière intelligente.

    Si vous effectuez ce changement tôt, vous serez prêt à saisir l’opportunité lorsqu’elle surviendra. Elle arrive.

    Plus tôt que vous ne l’imaginez.