Innovar es una cosa. Gobernar es otra. Un preocupante conjunto de datos de encuestas revela que, pese a las lagunas en la gobernanza que deberían hacerte parar, la adopción de IA generativa en las empresas sigue a toda velocidad.
Según la encuesta sobre agentes de IA de PWC de mayo de 2025, el 79 % de las empresas ya ha adoptado IA y solo un 2 % no considera en absoluto una IA agente. Ya muestren estas agentes capacidades realmente autónomas —como elaborar planes de trabajo, ejecutar acciones en varios pasos, evaluar resultados y autoajustarse— o bien sean bots que gestionan solicitudes puntuales usando un modelo de lenguaje grande (LLM) seleccionado, la adopción es muy alta y casi todas planean aumentar la inversión en IA durante el próximo año.
Comparado con nuestra propia investigación, que usa un índice de preparación en IA para medir la capacidad operativa de escalar, proteger y mantener sistemas de IA con éxito, solo el 2 % de las organizaciones está completamente lista para enfrentar los retos del diseño, implementación y operación de sistemas potenciados por IA.
Aun así, según la investigación de EY, los equipos de TI y seguridad no tienen otra opción, pues la mayoría de los líderes empresariales cree que deben adoptar IA agentiva este año para adelantarse a sus competidores el próximo año. Las organizaciones que se tomen el tiempo necesario para cerrar de forma cuidadosa las brechas de seguridad y gobernanza avanzarán más y tendrán negocios menos vulnerables en 2026, comparado con quienes las ignoren. Estas tres prácticas forman un triunvirato que te ayudará a minimizar riesgos al introducirte en IA generativa y agentiva:
Lo nuevo debe estar protegido, y toda forma de IA generativa tiene uno o más LLM en su núcleo. No basta con confiar en que los creadores de modelos mejorarán continuamente la precisión, reducirán las alucinaciones y evitarán el jailbreak. Debes invertir en servicios de prompt y modelo que detecten y detengan de forma independiente los comportamientos no deseados. Además, dado que toda empresa que usa un LLM en realidad emplea varios, ofuscar las aplicaciones desde la llamada API de inferencia es imprescindible para garantizar la disponibilidad, el enrutamiento, la escalabilidad y el control de costes de esas aplicaciones.
Los datos empresariales expuestos a modelos pueden ser datos nuevos o no para la empresa. Lo importante es protegerlos; no basta con asegurar los datos allí donde están o cifrarlos al transmitirse por la red. Debemos detectar y proteger igualmente los datos que existan en el entorno privado de la empresa, cualquiera que sea su forma, incluso si se utilizan con un servicio aprobado de terceros o una entidad externa. No te equivoques. El origen no es el foco. El foco está en la salida.
Los agentes cambian la dinámica porque utilizan LLM para decidir las acciones necesarias para alcanzar un objetivo final que ellos mismos definen. Para funcionar, necesitan autorización para realizar tareas, acceder a recursos, crear, modificar y eliminar información. Tienen que ser supervisados y controlados por algo externo, pero lo bastante cerca para observarlos y evaluarlos eficazmente. Han surgido dos enfoques principales que merece la pena seguir de cerca mientras evoluciona en los próximos meses: los marcos de barandilla (como MCP-Universe) y los marcos LLM-como-Juez (como Microsoft LLM-as-a-Judge Framework).
El primero establece la verdad objetiva mediante operaciones muy específicas basadas en tareas para comparar los resultados de acciones iniciadas por el agente con aquellas acciones obtenidas previamente por un software guiado de forma explícita. Su fortaleza radica en el creciente conjunto de código de ejemplo para verificar diversos datos, como el clima o hechos históricos, utilizando fuentes preseleccionadas y fiables. Reúne la información y luego coteja esos resultados como verdad objetiva frente a los obtenidos por un agente implementado.
El segundo utiliza un LLM distinto, incluso varios LLM, para analizar el comportamiento de un agente desplegado y evaluar la calidad y adecuación de sus resultados según lo defina la empresa. Ambos muestran un gran potencial, evolucionan rápidamente y permanecen bajo el control de la empresa. Aún mejor, puedes reforzarlos con controles humanos cuando sea necesario.
Este conjunto de controles sobre modelos, datos y agentes elimina las brechas de ciberseguridad y gobernanza que, de otro modo, pondrían a su empresa en riesgo ante las nuevas amenazas de la IA generativa y los sistemas autónomos.
Para conocer más sobre la aplicación de estos controles como servicios de infraestructura independientes, lee el reciente anuncio de F5 sobre CalypsoAI, pionera en soluciones de defensa, red team y gobernanza para aplicaciones y agentes de IA.