Si vous avez suivi ce que j’ai écrit ces vingt dernières années, vous savez déjà que l’architecture applicative influence profondément la livraison des applications. Il ne s’agit pas seulement de la façon dont les applications sont conçues ; combien elles s’adaptent, comment elles peuvent échouer, et surtout, comment elles circulent au sein de l’infrastructure que nous avons créée pour les livrer. Les architectures basées sur des agents perturbent clairement tout cela.
Cette évolution exige bien plus que la simple prise en charge de nouveaux protocoles ou capacités de sécurité. Elle requiert une classification.
L’industrie classe le trafic depuis des années, mais surtout pour l’arrêter. Vous avez tous utilisé ce classement pour bloquer les bots, filtrer les menaces et appliquer des politiques WAF sur les charges utiles malveillantes. Cela relève du minimum syndical. Et c’est là que le classement a été cantonné : à la sécurité.
Mais l’IA transforme le trafic et les ressources indispensables pour le traiter. Qu’en est-il des architectures d’agents ? Elles ne se contentent pas de changer les règles du jeu ; elles transforment le jeu lui-même.
L’adoption de l’IA dépasse la vitesse des technologies précédentes, et les agents s’intègrent déjà dans les entreprises.
Chaque POST peut représenter une requête, un objectif ou un agent d'IA cherchant à comprendre votre infrastructure. Il peut déclencher une orchestration, lancer un flux de travail récursif ou saturer votre backend avec une invite de 200 jetons qui se transforme en 20 000. Et l'infrastructure ? Elle continue de traiter tous les POST de la même manière.
C’est là que réside le problème.
Le trafic moderne ne se limite plus à circuler ; il représente une mission, une responsabilité, un choix. Votre capacité à le classer avant de l’orienter garantit que votre application reste performante, disponible et surtout sécurisée.
Commençons par ce qui est familier. Le modèle traditionnel de gestion du trafic, basé sur le routage de couche 4 (L4), reste la pierre angulaire d’une grande partie d’Internet. Nous nous appuyons sur des paramètres simples :
Le problème ? Ce modèle ne comprend généralement pas le sens d’une requête. Il perçoit le trafic comme des paquets uniformes, pas comme des tâches diverses avec des besoins spécifiques. Aujourd’hui, avec l’essor de l’IA générative, des grands modèles de langage intégrés (LLM) et des architectures basées sur des agents, cette méconnaissance devient un risque croissant parce que tout le trafic ne se vaut plus.
Examinez deux requêtes HTTP POST :
Si votre infrastructure traite ces requêtes de manière identique et applique les mêmes règles de routage, délais d’attente ou serveurs en arrière-plan, vous prenez des risques. Vous pouvez rencontrer des goulots d’étranglement, des pannes ou une dégradation des performances lorsqu’une tâche d’IA très consommatrice de ressources est gérée comme une simple requête de base de données. Le trafic actuel exige une gestion plus intelligente.
Cela fait des années que nous assurons le routage L7. Nous associons des chemins, analysons les charges utiles, et consultons les en-têtes pour décider où diriger le trafic. C’est ce qu’on appelle du routage basé sur le contenu. C’est efficace. Mais cela vous dit seulement ce que la requête contient, pas pourquoi elle existe.
Pour avancer, vous devez adopter une classification fondée sur le contexte.
Nous passons ainsi du simple traitement du trafic comme « contenu à délivrer » au traitement comme « travail à exécuter ». Cela vous permet de décider en temps réel où diriger une requête, comment la prioriser, et quelles politiques appliquer selon l’objectif visé par la requête. Appelez cela basé sur l’intention. Appelez cela contextualisé. Le nom importe peu, la vraie révolution est là : les requêtes ne sont plus de simples transactions. Elles deviennent des invocations. Des déclencheurs. Des objectifs portés par HTTP.
Tout cela correspond directement au Top 10 de la livraison d’applications n° 4 (Contrôles du trafic), n° 5 (Orientation du trafic) et n° 6 (Gestion de la latence). Vous ne pouvez pas contrôler, orienter ou optimiser ce que vous ne pouvez pas contextualiser.
Voici où nous nous dirigeons, surtout avec l’intégration des systèmes agents et des planificateurs récursifs dans les environnements de production. Nous ne nous contentons plus de diffuser du contenu. Nous pilotons des objectifs. Cela transforme tout.
Dans ce modèle, une seule requête ne donne pas toujours lieu à une seule réponse. Elle peut déclencher une série de tâches plus petites. Certaines peuvent s’exécuter en parallèle. D’autres dépendent de la fin préalable d’une autre tâche. Vous ne vous contentez pas de diriger le trafic, vous orchestrez le travail.
Considérez-le plutôt comme un flux de travail que comme une simple chaîne. Vous gérez une liste d’étapes qui entrent toutes en jeu pour atteindre un objectif. Certaines étapes peuvent débuter immédiatement, tandis que d’autres doivent attendre leur tour. Nous devons tout coordonner, observer et ajuster selon les capacités, les politiques et la charge en cours.
À ce stade, la logique de routage traditionnelle montre ses limites. Des chemins statiques et des politiques uniformes ne suffiront plus lorsque chaque requête peut entraîner un processus complexe impliquant plusieurs étapes et acteurs. Vous avez besoin d’un système qui saisit la nature de la tâche, ses besoins, et détermine la meilleure ressource pour la gérer, au-delà du simple acheminement des paquets.
Et voici l’essentiel : vous ne pouvez rien faire sans classification. Si votre infrastructure ne comprend pas l’objectif de la requête, elle ne peut pas la router de façon intelligente. Ce n’est pas un avenir lointain, mais une réalité qui se précise. La classification est le lien qui transforme le simple routage des requêtes en une coordination effective.
Soyons clairs : il ne s'agit pas d'ajouter plus de métadonnées ni de concevoir une table de routage plus complexe. Il s'agit plutôt de changer notre manière d'analyser le trafic que vous observez déjà.
La classification nous permet de passer de la simple réaction aux requêtes à leur compréhension, avant de les router, de les mettre à l’échelle ou de risquer une interruption, en traitant une boucle récursive d’agent comme un accès statique à un élément.
Ce n’est plus seulement une question de sécurité. Ce n’est plus uniquement ce qui se trouve dans la requête. Il s’agit de ce que la requête signifie, de son objectif, de sa charge et des éléments qu’elle impacte en aval.
Voici pourquoi la classification n’est pas une simple tendance émergente. C’est une obligation. Elle marque une étape indispensable pour faire évoluer la gestion du trafic afin de répondre aux exigences du monde que vous contribuez à bâtir : un monde où agents, tâches, flux de travail et orchestration en temps réel sont devenus la norme, et non des cas isolés.
On ne peut pas gérer ce que l'on ne comprend pas. Commencez par la classification pour mieux comprendre.