BLOG | OFICINA DEL CTO

El contexto es el nuevo perímetro: Controlar agentes de IA con entrega programable de aplicaciones

Miniatura de Lori MacVittie
Lori MacVittie
Publicado el 22 de julio de 2025

Existe un mito persistente y perjudicial en AIOps: «MCP es simplemente otra API».

Claro. SOAP no era más que XML con aspiraciones exageradas.

Las arquitecturas basadas en agentes, especialmente las construidas sobre el Protocolo de Contexto de Modelo (MCP), utilizan bloques de contexto explícitos que viajan con cada solicitud. No hablamos de intuiciones neuronales ni de la “memoria LLM”. Es un contexto operativo serializado y estructurado: piensa en JSON, no en impresiones, que se envía con cada llamada para que los agentes puedan seguir los objetivos, roles, políticas y el estado del flujo de trabajo.

Pero la realidad es esta: el contexto cambia. Y cuando ocurre, tus agentes no solo se confunden. Cometen errores con confianza, actúan de forma imprevisible o llegan a ser directamente peligrosos.

El problema es que quienes ya están experimentando y desplegando agentes de IA van por delante. Y así es. Nuestra última investigación revela que el 9% ya ha implantado agentes de IA en producción, el 29% cuenta con un plan formal para avanzar, y otro 50% está en las “primeras fases” de desarrollo. Solo un 11% ni siquiera considera los agentes de IA.

Avanzan rápido. Más rápido que el sector.

No cuentas con herramientas efectivas de cumplimiento, ni con seguridad ni con las mejores prácticas. Prácticamente no hay opciones disponibles para gestionar los riesgos de seguridad que surgen con cada nueva tecnología.

Menos la programabilidad. Aquí es donde tu plataforma de entrega y seguridad de aplicaciones cobra importancia. No funcionamos solo como un tubo básico, sino como un controlador programable de higiene cognitiva y disciplina contextual.

Cómo se transmite el contexto realmente

El contexto no es una abstracción. Lo encuentras directamente en el payload. Una solicitud MCP real se presenta así:

POST /agent/v1/invoke HTTP/1.1

Host: agentmesh.internal

Autorización: Bearer xyz123

Content-Type: application/json

Versión X-MCP: 1.0

{

"contexto": {

    "usuario": { ... },

    "objetivo": "...",

    "mensajes_previos": [ ... ],

    "estado_tarea": { ... },

    "seguridad": { ... }

  },

"input": { "prompt": "Ahora visualízalo con un gráfico rápido." }

 }

Este bloque de contexto es indispensable. Es la memoria activa del agente. Incluye todo lo que el agente "sabe" y cada suposición en la que basará su acción. Cada salto lo transmite sin comprimir, a veces sin verificar, y casi siempre con datos cada vez más desactualizados.

Cómo cambia el contexto (y por qué importa)

Este bagaje es lo que finalmente causa la deriva del contexto. La deriva ocurre cuando:

  • Los objetivos y estados de las tareas anteriores permanecen después de que hayas avanzado.
  • Los mensajes previos se acumulan, sobrecargando las solicitudes y causando confusión en los agentes.
  • Las etiquetas de seguridad se quedan donde no deberían.
  • Varios agentes actualizan el mismo hilo sin eliminar la suciedad acumulada.

Cuando el agente #4 recibe el testigo, toma decisiones basadas en instrucciones obsoletas, controles de acceso arcaicos y "objetivos" que ya no interesan a nadie. Los agentes no protestan. Simplemente actúan con convicción y transmiten el problema más adelante.

Programabilidad: El gestor de contexto que realmente necesitas

Si sigues viendo tu plataforma de entrega de aplicaciones solo como un balanceador de carga, enhorabuena. Estás jugando a las damas mientras el resto del mundo juega al ajedrez.

En arquitecturas agentivas, la entrega programable de aplicaciones es la única capa que ofrece:

  • Visibilidad total de cada solicitud
  • La capacidad para inspeccionar, transformar, bloquear o limpiar el contexto
  • Sin dependencia de la opinión o memoria de ningún agente

Reducción de contexto en edge computing

No permitas que los agentes carguen con toda la historia de la humanidad en cada solicitud.

  • Reducir prior_messages a los últimos N intercambios.
  • Expire objetivos automáticamente según el tiempo transcurrido o cambio de estado.
  • Descarta task_state cuando la intención cambie de continuación a nueva tarea.

Ahora aplicas límites de memoria y gestión cognitiva antes de que el agente procese la entrada.

Clasificación y aplicación de políticas virtuales

Si tu bloque de contexto indica security.classification = confidential pero vas a usar una API pública de resumen, necesitarás una política programable en el edge para bloquear, redactar o enmascarar campos sensibles y validar el alcance del acceso en cada solicitud. Los grandes modelos de lenguaje (LLM) no cuestionan tus políticas; simplemente filtran información.

Detección de cambio de intención

¿Un usuario cambió de “resumir métricas trimestrales” a “crear una presentación”? Hay que reiniciar el contexto, no acumularlo. Si la intención de la solicitud cambia pero el contexto incluye objetivos y estados obsoletos, elimina el contexto y comienza de nuevo. Así evitarás que los agentes resuelvan problemas pasados con datos actuales.

Monitoreo de telemetría y desviaciones

Tu capa de prestación de servicios debe monitorizar:

  • Evolución del tamaño de los tokens en bloques de contexto
  • Tasas de crecimiento de mensajes anteriores
  • Patrones de desajuste entre metas y tareas por agente

Así puedes detectar la saturación y el desvío de contexto antes de que se convierta en un problema grave. El seguimiento te proporciona respuestas claras cuando la dirección pregunta por qué tus “agentes autónomos” se comportan como becarios demasiado seguros.

Necesitas un gestor de contexto, no solo un cortafuegos

Los LLM consumen todo el contexto que les proporcionas y generan un caos si no prestas atención. Los agentes no te avisarán cuando el contexto se desvíe, los objetivos queden anticuados o el historial de tareas derivado sea problemático. Tu capa programable de prestación no solo debe hacerlo, es imprescindible.

Es la única capa neutral, omnipresente y que hace cumplir las políticas que queda.

En la era de la IA agente, tu plataforma de entrega de aplicaciones no solo dirige el tráfico. Actúa como tu firewall semántico, tu agente de cumplimiento y tu última esperanza para evitar que los agentes se conviertan en mentirosos confiados con acceso root.

Porque si permites que la deriva y la acumulación te dominen, acabas perdiendo. No solo pierdes el control, también la confianza en toda tu plataforma de IA.