Los agentes de IA están transformando la interacción entre las aplicaciones y la infraestructura. A diferencia de los sistemas tradicionales, cada agente lleva sus propios objetivos, contexto y lógica de decisión en cada solicitud: qué hacer, cómo recuperarse y cómo definir el éxito. Esta transformación derriba convenciones arraigadas sobre la gestión del tráfico y requiere repensar la infraestructura empresarial. El enrutamiento estático, los recursos agrupados y las políticas centralizadas ya no bastan en un entorno de autonomía por solicitud.
Las arquitecturas de agentes exigen que la infraestructura pase de una ejecución reactiva a interpretar en tiempo real la intención integrada. Si reconoces esta transformación, puedes prepararte sin desechar las inversiones actuales; simplemente adáptalas.
Los agentes de IA son más que simples aplicaciones inteligentes. Marcan un cambio estructural en la forma en que las aplicaciones funcionan, toman decisiones y se adaptan. A diferencia de los sistemas tradicionales, los agentes no solo reaccionan a las políticas de tráfico; incorporan las suyas propias. Cada solicitud que envían lleva no solo datos, sino también lógica integrada: qué debe suceder, cómo actuar ante una falla y qué define el éxito.
Este cambio traslada la toma de decisiones de planos de control estáticos al propio tiempo de ejecución. Rompe la tradicional división entre planos de control y de datos, transformando la infraestructura de tráfico—balanceadores de carga, puertas de enlace, proxies—en intérpretes activos de políticas por solicitud en lugar de simples ejecutores de rutas preconfiguradas.
Este documento analiza cómo las arquitecturas de agentes rompen supuestos clave en la ingeniería del tráfico, desde las verificaciones de estado y la lógica de respaldo hasta la observabilidad y la aplicación de la seguridad. Te explicamos por qué las soluciones tradicionales, como los grupos estáticos y las métricas de salud basadas en promedios, ya no bastan en un contexto de intención por solicitud. Además, defendemos que la infraestructura de Capa 7 debe evolucionar o quedará reducida a una infraestructura básica y confiable, pero estratégicamente invisible. Para adaptarte, tienes que replantear la pila de tráfico: hacerla programable en tiempo real, consciente del contexto y alineada con protocolos nativos de agentes como Model Context Protocol (MCP). Esto implica renovar la lógica de respaldo, apostar por la observabilidad semántica y apoyar la aplicación de políticas que provienen del agente. Las herramientas emergentes, como el etiquetado de datos en tiempo real, te brindan un apoyo esencial para esta transformación.
En resumen, el futuro de la gestión del tráfico va más allá de entregar paquetes; se trata de cumplir objetivos.
Las arquitecturas de agentes establecen un nuevo modelo operativo en el que componentes autónomos, generativos y basados en IA—llamados agentes—realizan tareas orientadas a objetivos, toman decisiones en tiempo real y mantienen el contexto necesario para adaptar su ejecución al momento. Estos agentes funcionan de forma similar al encadenamiento de servicios actual, pero sin depender de flujos de trabajo preconfigurados. En cambio, definen el flujo de ejecución adecuado durante la operación según los objetivos, el estado del entorno y los resultados que observan.
Este cambio implica avanzar desde sistemas tradicionales, orquestados de forma centralizada con flujos predeterminados, hacia sistemas descentralizados y dinámicos que construyen rutas de ejecución en tiempo real. Sustituye la previsibilidad de las cadenas estáticas de microservicios por una toma de decisiones ágil y adaptable, basada en datos en directo e intenciones.
Definimos los sistemas basados en agentes por lo siguiente:
Ejemplo: Un agente que gestione la “resolución de una queja del cliente” podrá invocar las API de facturación, cuenta y mensajería de manera distinta según los resultados previos.
Juntos, transforman el panorama de las aplicaciones, pasando de algo predecible a algo adaptable y en constante evolución.
Los sistemas actuales de gestión del tráfico operan con límites definidos:
Este modelo ha funcionado eficazmente durante décadas, especialmente en arquitecturas orientadas a servicios y entornos de microservicios. Parte de la base de que se pueden prever los flujos de tráfico y que las cargas de trabajo siguen patrones predecibles.
Examples:
/api/login
a un grupo y /api/images
a otro.Estos sistemas dependen de:
Sin embargo, los sistemas basados en agentes aportan fluidez, autonomía y lógica autodirigida que desafían estas suposiciones.
En arquitecturas basadas en agentes, la separación tradicional entre el plano de control y el plano de datos empieza a desaparecer. Los agentes no solo ejecutan solicitudes; integran la lógica que define qué es la solicitud, qué condiciones deben activar alternativas, cómo se mide el éxito e incluso cuál ruta prefieren seguir. Estas responsabilidades recaen habitualmente en el plano de control, pero los agentes las codifican en encabezados, tokens o metadatos que viajan con la solicitud a través del plano de datos.
Esta convergencia implica que el plano de datos ya no puede actuar como ejecutor pasivo de decisiones centralizadas. Debes interpretarla activamente en tiempo real. La solicitud ya no es solo un paquete, sino un elemento definido por políticas. Por ello, balanceadores de carga, gateways y capas de enrutamiento deben pasar de componentes reactivos a intérpretes en tiempo real de la intención transmitida por el agente.
Este cambio rompe con la suposición fundamental de arquitectura de que el plano de control permanece estático y centralizado. En lugar de eso, la lógica de decisión se distribuye, se vuelve portátil y personalizada, acompaña cada solicitud y se ejecuta en tiempo real. No se trata solo de un cambio en el modelo de implementación; es un cambio en dónde y cómo tomas las decisiones.
Esto completa de forma efectiva lo que Kubernetes inició al abstraer la infraestructura subyacente —red, almacenamiento e incluso el enrutamiento del tráfico L4— y convertirlo todo en "tuberías" tras una interfaz declarativa. No eliminó esas capas, pero las relegó. Pasaron a ser invisibles, automatizadas y subordinadas a un nuevo sistema dirigido por objetivos.
Las arquitecturas de agentes hacen esto para toda la pila, no solo para la infraestructura.
Para ilustrar estas disrupciones con un ejemplo real, piense en un escenario local de entrega de aplicaciones:
Ejemplo: Una tienda regional de comercio electrónico emplea un ADC para gestionar el tráfico interno de API. Asignamos un agente de IA para optimizar la rapidez en el cumplimiento de pedidos. Detecta que un endpoint específico de la API, por ejemplo /api/inventory/check
, sufre una caída de rendimiento debido a la mayor complejidad de las solicitudes y la contención en la base de datos del backend. Los algoritmos tradicionales de equilibrio de carga, como el de "respuesta más rápida", no capturan esta ralentización porque calculan el rendimiento como un promedio general de todas las respuestas de un miembro del grupo, no por tarea o llamada individual.
Para cumplir con su SLA, el agente redirige estas solicitudes de verificación de inventario a un grupo alternativo de nodos optimizado para consultas transaccionales. Lo hace etiquetando cada solicitud con un encabezado de contexto, como X-Task-Profile: inventory-sensitive
. El balanceador de carga, si está configurado correctamente, interpretará esto y dirigirá el tráfico en consecuencia. Sin embargo, dado que estos nodos no se asignaron previamente en el grupo estático vinculado a /api/inventory
, los servicios de direccionamiento del tráfico deben poder cumplir con las directrices que lleva el agente y resolver dinámicamente el enrutamiento sin apoyarse en configuraciones estáticas.
Este escenario destaca las limitaciones de construcciones estáticas como los grupos y muestra la necesidad de ejecutar el tráfico de forma dinámica y consciente del contexto.
Los sistemas basados en agentes contradicen varios supuestos clave de la ingeniería del tráfico:
Convergencia del plano de control y de datos: Antes, las decisiones de enrutamiento se basaban en reglas estáticas; ahora dependen directamente de la solicitud. Esto elimina la lógica tradicional de aplicación.
Enrutamiento basado en intenciones: Los agentes enrutamos el tráfico según los objetivos, no solo por los puntos finales. Un único punto final como /api/process
puede gestionar cientos de flujos de tareas diferentes, según las instrucciones del agente.
Los grupos estáticos quedan atrás: Los grupos tradicionales establecen roles fijos. Pero los agentes necesitan acceso a la GPU en un momento y optimización de la CPU en el siguiente, por lo que la adhesión a un grupo resulta demasiado rígida.
Los sistemas de respaldo y conmutación por error se vuelven estratégicos: Antes, conmutar por error significaba “probar con el siguiente servidor”. Ahora los agentes evalúan el rendimiento en tiempo real, analizan los resultados previos y deciden estratégicamente cómo actuar.
Los patrones de tráfico surgen, no se repiten: Los agentes crean flujos de trabajo bajo demanda. No puedes predefinir todas las rutas; se forman según las necesidades.
Estas interrupciones ponen a prueba a los balanceadores de carga, gateways y sistemas de observabilidad para que respondan con agilidad a la dinámica lógica del tráfico en tiempo real.
Las métricas de salud y rendimiento siempre han sido la base de la gestión del tráfico. Tomamos decisiones de equilibrio de carga basándonos en si un servidor está disponible, qué tan rápido responde y cuánta carga soporta. Pero en sistemas gestionados por agentes, la salud no es algo binario y el rendimiento no se puede promediar en categorías generales. Las métricas deben mostrar si un objetivo es adecuado para una tarea concreta, no solo si está activo.
Por qué importa: Las métricas de salud influyen directamente en la gestión del tráfico, las decisiones de conmutación por error y la optimización del rendimiento. En un entorno nativo de agentes, cada solicitud tiene una intención distinta y puede requerir una ruta o garantía de respuesta propia. Los métodos tradicionales no satisfacen esta necesidad porque:
Ejemplo: Un grupo de servidores API puede aparecer "saludable" según los controles de estado, pero uno de ellos falla constantemente en responder bajo los 100 ms para consultas con X-Task-Profile: inventory-sensitive
. Si esperas ese perfil de latencia, percibirás un fallo, incluso cuando la infraestructura funcione con normalidad.
Lo que necesitas:
Las herramientas de etiquetado de datos desempeñan un papel clave al identificar el tráfico en movimiento y capturar tanto el rendimiento como la alineación del contexto. Así, los sistemas pueden analizar no solo qué ocurrió, sino si cumplió el objetivo del actor que lo inició.
En la infraestructura tradicional, implementamos el comportamiento de respaldo, como reintentos, redirección a nodos de respaldo o activación de interruptores automáticos, en la capa de infraestructura. Balanceadores de carga, proxies y puertas de enlace aplican umbrales predefinidos (por ejemplo, tiempos de espera, tasas de error) para decidir cuándo dejar de enrutar tráfico hacia un destino y probar una alternativa.
Las arquitecturas de agentes cambian completamente esa lógica.
Los agentes implementan sus propias estrategias de respaldo. Integran políticas de reintento, lógica de escalado y prioridades enfocadas en objetivos dentro de la solicitud. Así se genera complejidad y posibles conflictos con los mecanismos de conmutación automática a nivel de infraestructura.
Por qué importa:
Riesgos clave:
Indicaciones para adaptar:
X-Fallback-Order
o X-Timeout-Preference
).Ejemplo: Un agente encargado de comprobar fraude en tiempo real solicita una respuesta en menos de 50 ms. Su lógica alternativa prioriza un resultado parcial almacenado en caché frente a una consulta completa lenta. Una infraestructura que no considere esto puede seguir enviando solicitudes al backend completo, causando retrasos visibles para el usuario. Un modelo más colaborativo respetaría la prioridad del agente y entregaría la respuesta degradada más rápida.
A medida que elevas el nivel en la toma de decisiones, debes elevar también las estrategias de respaldo. Los interruptores automáticos y la lógica de reintentos no pueden ser estáticos ni poco claros; deben ajustarse a las preferencias que manifiestes, garantizando siempre la seguridad y equidad del sistema.
Aunque las arquitecturas de agentes trasladan la toma de decisiones y la coordinación a la capa de solicitudes, la infraestructura subyacente sigue garantizando la fiabilidad del sistema principal. Por eso, la alta disponibilidad (HA) y los mecanismos de conmutación por error en la capa de infraestructura continúan siendo fundamentales. De hecho, resultan aún más cruciales a medida que los sistemas adoptan comportamientos más dinámicos y autónomos.
Los agentes pueden dirigir el tráfico según objetivos y contexto, pero siguen dependiendo de la red para garantizar que los servicios sean accesibles y resistentes cuando surgen problemas. Los balanceadores de carga deben identificar nodos inaccesibles, fallos de servicio o entornos deteriorados y redirigir el tráfico en tiempo real, sin importar la estrategia de respaldo del agente.
Responsabilidades clave que permanecen constantes:
Los agentes pueden encargarse de decidir «qué debe ocurrir a continuación», pero el balanceador de carga sigue siendo responsable de «qué tan rápido nos recuperamos cuando un nodo cae».
La lógica de enrutamiento adaptativa, que reconoce agentes, debe garantizar la estabilidad operativa. Una infraestructura bien instrumentada mantiene:
En suma, las arquitecturas basadas en agentes no eliminan la necesidad de conmutación por error, sino que aumentan la responsabilidad. La infraestructura debe responder más rápido, con mayor sensibilidad al contexto y sin convertirse en un cuello de botella para el funcionamiento autónomo.
El paso a arquitecturas basadas en agentes cambia de forma radical cómo deben operar sistemas de tráfico como balanceadores de carga y gateways. Mientras los sistemas tradicionales tomaban decisiones según políticas preconfiguradas, a menudo ajenas a la solicitud, los sistemas impulsados por agentes integran esa política directamente en la solicitud. Esto fundamenta lo que permite el Protocolo de Contexto de Modelo (MCP): ejecutar políticas embebidas en cada solicitud.
Llamaremos a este modelo "política en payload". En lugar de que sistemas centralizados analicen cada caso excepcional, el agente codifica decisiones clave de política (como estrategia de respaldo, preferencia de nodo, tolerancia a errores o requisitos de privacidad) en cada solicitud. La infraestructura debe leer, interpretar y actuar sobre esas instrucciones de política en tiempo real.
Este nuevo modelo de implementación redefine el papel de los componentes de la plataforma de gestión del tráfico:
Ejemplo: Un balanceador de carga que detecte X-Route-Preference: gpu-optimized
debe dirigir el tráfico acorde a ello, aunque ese nodo no formase parte del grupo inicial.
X-Intent
, X-Context
o X-Goal
. Así, trasladamos la lógica de rutas preconfiguradas a una interpretación dinámica e inmediata.Las tecnologías de etiquetado de datos y herramientas similares apoyan esta transición al identificar y clasificar el contexto de las solicitudes en tiempo real, facilitando un enrutamiento semántico y una observabilidad efectivas.
Los agentes de IA no funcionarán de forma aislada. Se integrarán con sistemas heredados, utilizarán APIs tradicionales, trabajarán sobre la lógica empresarial en bases de datos corporativas y ejecutarán funciones tanto en backends monolíticos como en microservicios. Para las empresas, esto implica que no pueden empezar de cero, deben adaptarse y evolucionar.
Las infraestructuras empresariales combinan:
Los agentes deben saber trabajar en toda la infraestructura. Y tu infraestructura debe saber mediar esa interacción en tiempo real, aplicando políticas con conciencia del contexto.
Los agentes no buscan cinco puntos finales, buscan un único objetivo. Ofrece funcionalidad empresarial (por ejemplo, “consultar estado del pedido”) mediante capas de abstracción o composiciones API que los agentes puedan utilizar a través de un único punto de entrada semántico.
Paso previo: Usa gateways API o service meshes para consolidar puntos finales orientados a tareas con contratos claros de entrada y salida.
El registro tradicional se enfoca en el método, la ruta y el tiempo de respuesta. Pero a los agentes les interesa:
Paso previo: Adopta herramientas de observabilidad semántica que marquen el tráfico con etiquetas como X-Intent
, X-Task-Type
y X-Agent-Outcome
.
Los agentes incluyen instrucciones alternativas, preferencias de tiempo de espera y requerimientos de seguridad dentro de la solicitud. La infraestructura actual elimina esta información.
Paso previo: Amplíe las políticas de tráfico para interpretar y actuar según los metadatos del agente (por ejemplo, X-Route-Preference
, X-Fallback-Order
, X-Data-Class
). Empiece con iRules o un scripting similar en tiempo de ejecución.
Los agentes actúan de forma autónoma. Debes saber:
Paso preparatorio: Integra controles de acceso basados en identidad y políticas basadas en atributos (ABAC), no solo listas blancas de IP o RBAC estático.
La infraestructura y los agentes no deben competir para recuperarse. Deja que uno gestione los objetivos en tiempo real; que el otro aplique las salvaguardas sistémicas.
Paso preparatorio: Separe claramente el ámbito de respaldo del agente (lo que controla) del failover de la infraestructura (lo que Usted gestiona). Defina las reglas de negociación y las condiciones en que se pueden anular.
A medida que la IA avanza de modelos aislados a agentes autónomos, las empresas afrontan un punto de inflexión estratégico. Estos agentes no funcionarán en entornos nuevos; se integrarán con aplicaciones existentes, utilizarán APIs heredadas y tomarán decisiones en sistemas empresariales clave. Por eso, las empresas deben prepararse ahora para darles soporte, no solo con nuevas herramientas, sino replanteando cómo su arquitectura gestiona la intención, la ejecución y la gobernanza.
No es un momento para eliminar y sustituir. Es un momento de convergencia, donde sistemas tradicionales y nuevos comportamientos de agentes deben trabajar juntos con precisión y propósito.
Ya vienen las arquitecturas de agentes. Si te preparas ahora, no solo seguirás el ritmo, guiarás el camino.
La comunidad de F5 para foros de discusión y artículos de expertos.