Existe un mito persistente y perjudicial en AIOps: «MCP es simplemente otra API».
Claro. SOAP no era más que XML con aspiraciones exageradas.
Las arquitecturas basadas en agentes, especialmente las construidas sobre el Protocolo de Contexto de Modelo (MCP), utilizan bloques de contexto explícitos que viajan con cada solicitud. No hablamos de intuiciones neuronales ni de la “memoria LLM”. Es un contexto operativo serializado y estructurado: piensa en JSON, no en impresiones, que se envía con cada llamada para que los agentes puedan seguir los objetivos, roles, políticas y el estado del flujo de trabajo.
Pero la realidad es esta: el contexto cambia. Y cuando ocurre, tus agentes no solo se confunden. Cometen errores con confianza, actúan de forma imprevisible o llegan a ser directamente peligrosos.
El problema es que quienes ya están experimentando y desplegando agentes de IA van por delante. Y así es. Nuestra última investigación revela que el 9% ya ha implantado agentes de IA en producción, el 29% cuenta con un plan formal para avanzar, y otro 50% está en las “primeras fases” de desarrollo. Solo un 11% ni siquiera considera los agentes de IA.
Avanzan rápido. Más rápido que el sector.
No cuentas con herramientas efectivas de cumplimiento, ni con seguridad ni con las mejores prácticas. Prácticamente no hay opciones disponibles para gestionar los riesgos de seguridad que surgen con cada nueva tecnología.
Menos la programabilidad. Aquí es donde tu plataforma de entrega y seguridad de aplicaciones cobra importancia. No funcionamos solo como un tubo básico, sino como un controlador programable de higiene cognitiva y disciplina contextual.
El contexto no es una abstracción. Lo encuentras directamente en el payload. Una solicitud MCP real se presenta así:
POST /agent/v1/invoke HTTP/1.1
Host: agentmesh.internal
Autorización: Bearer xyz123
Content-Type: application/json
Versión X-MCP: 1.0
{
"contexto": {
"usuario": { ... },
"objetivo": "...",
"mensajes_previos": [ ... ],
"estado_tarea": { ... },
"seguridad": { ... }
},
"input": { "prompt": "Ahora visualízalo con un gráfico rápido." }
}
Este bloque de contexto es indispensable. Es la memoria activa del agente. Incluye todo lo que el agente "sabe" y cada suposición en la que basará su acción. Cada salto lo transmite sin comprimir, a veces sin verificar, y casi siempre con datos cada vez más desactualizados.
Este bagaje es lo que finalmente causa la deriva del contexto. La deriva ocurre cuando:
Cuando el agente #4 recibe el testigo, toma decisiones basadas en instrucciones obsoletas, controles de acceso arcaicos y "objetivos" que ya no interesan a nadie. Los agentes no protestan. Simplemente actúan con convicción y transmiten el problema más adelante.
Si sigues viendo tu plataforma de entrega de aplicaciones solo como un balanceador de carga, enhorabuena. Estás jugando a las damas mientras el resto del mundo juega al ajedrez.
En arquitecturas agentivas, la entrega programable de aplicaciones es la única capa que ofrece:
No permitas que los agentes carguen con toda la historia de la humanidad en cada solicitud.
prior_messages
a los últimos N intercambios.task_state
cuando la intención cambie de continuación
a nueva tarea.
Ahora aplicas límites de memoria y gestión cognitiva antes de que el agente procese la entrada.
Si tu bloque de contexto indica security.classification = confidential
pero vas a usar una API pública de resumen, necesitarás una política programable en el edge para bloquear, redactar o enmascarar campos sensibles y validar el alcance del acceso en cada solicitud. Los grandes modelos de lenguaje (LLM) no cuestionan tus políticas; simplemente filtran información.
¿Un usuario cambió de “resumir métricas trimestrales” a “crear una presentación”? Hay que reiniciar el contexto, no acumularlo. Si la intención de la solicitud cambia pero el contexto incluye objetivos y estados obsoletos, elimina el contexto y comienza de nuevo. Así evitarás que los agentes resuelvan problemas pasados con datos actuales.
Tu capa de prestación de servicios debe monitorizar:
mensajes anteriores
Así puedes detectar la saturación y el desvío de contexto antes de que se convierta en un problema grave. El seguimiento te proporciona respuestas claras cuando la dirección pregunta por qué tus “agentes autónomos” se comportan como becarios demasiado seguros.
Los LLM consumen todo el contexto que les proporcionas y generan un caos si no prestas atención. Los agentes no te avisarán cuando el contexto se desvíe, los objetivos queden anticuados o el historial de tareas derivado sea problemático. Tu capa programable de prestación no solo debe hacerlo, es imprescindible.
Es la única capa neutral, omnipresente y que hace cumplir las políticas que queda.
En la era de la IA agente, tu plataforma de entrega de aplicaciones no solo dirige el tráfico. Actúa como tu firewall semántico, tu agente de cumplimiento y tu última esperanza para evitar que los agentes se conviertan en mentirosos confiados con acceso root.
Porque si permites que la deriva y la acumulación te dominen, acabas perdiendo. No solo pierdes el control, también la confianza en toda tu plataforma de IA.