La inteligencia artificial ha llegado para quedarse; no volveremos a la era anterior a 2010. Los avances en productividad, innovación y repercusión económica son tremendamente transformadores.
Pero junto a esos beneficios extraordinarios, surgen riesgos importantes para las organizaciones que adoptan la IA. Uno de los más urgentes es la IA en la sombra: el uso creciente de herramientas de IA por parte de los empleados sin que los líderes de TI lo conozcan o aprueben. Esta práctica emerge rápidamente como una amenaza relevante para la seguridad y el cumplimiento, aunque sigue siendo relativamente nueva y en constante evolución.
Shadow AI es una rápida evolución de Shadow IT, el conocido desafío donde los empleados introducen software, servicios en la nube o sistemas no autorizados dentro de la empresa. Mientras Shadow IT ya complica la gobernanza y la seguridad, Shadow AI añade un nivel nuevo y riesgoso de complejidad.
Algunos ejemplos de IA sombra:
Estos ejemplos son solo el principio. Diariamente, surgen innumerables otros escenarios de IA en la sombra en distintos sectores. El alcance del problema es tan grande que Gartner® pronostica que “para 2027, el 75 % de los empleados adquirirá, modificará o creará tecnología fuera del control de TI — un aumento desde el 41 % en 2022. Por eso, los modelos operativos de ciberseguridad centralizados y jerárquicos no funcionarán. En cambio, los CISO deben transformar la ciberseguridad en una función ágil y centralizada que apoye a un amplio y federado grupo de expertos y equipos de colaboración distribuidos por toda la empresa. Así, escalamos la ciberseguridad hacia el perímetro de la empresa, acercándola al lugar donde se toman y ejecutan decisiones sobre tecnología y riesgos.” 1
Aunque aún calculamos con precisión las pérdidas financieras causadas por la IA en la sombra, el daño potencial es evidente y sigue creciendo. Si no actúas ahora, tu organización corre el riesgo de sufrir incidentes graves, enfrentar riesgos regulatorios y perder la confianza de tus clientes.
Una de las vulnerabilidades más graves es la inyección de prompts, un ataque donde un usuario malintencionado manipula la entrada de la IA para evadir restricciones, filtrar datos sensibles o ejecutar acciones no deseadas. Los modelos de IA suelen confiar en la entrada por defecto, lo que los deja expuestos a este tipo de exploits. Una inyección de prompts exitosa puede engañar a la IA para que revele datos internos, corrompa procesos automatizados o comprometa los sistemas de toma de decisiones.
Otra preocupación crucial es la fuga de datos, especialmente de información personal identificable (PII), información sanitaria protegida (PHI), detalles bancarios y registros financieros, código fuente y propiedad intelectual, credenciales y claves de acceso, o registros de clientes.
El riesgo aumenta por la posibilidad de incumplir normativas. Utilizar IA sin autorización vulnera con facilidad estándares como GDPR, HIPAA, PCI DSS y la Ley Sarbanes-Oxley, lo que expone a tu empresa a sanciones y daños reputacionales.
Para hacer frente a estos riesgos, algunas organizaciones han prohibido a sus empleados usar herramientas de IA generativa no autorizadas. Samsung, por ejemplo, fue una de las primeras en 2023 en vetar el uso de ChatGPT y otros chatbots con IA, debido a preocupaciones por posibles filtraciones de información interna sensible. Luego, varios bancos y otras empresas adoptaron restricciones o advertencias similares.
Sin embargo, la mayoría de los expertos de la industria recomienda no aplicar prohibiciones generales.
Aunque los riesgos son reales, los analistas del sector aconsejan implementar políticas de prevención y marcos de gobernanza en lugar de prohibiciones absolutas.
Las prohibiciones suelen ser contraproducentes. Resultan difíciles de hacer cumplir, frecuentemente frenan la innovación y la motivación, y pueden llevar el uso de la IA a la clandestinidad, complicando aún más su detección y control.
Como comentó un líder de TI en una discusión de la comunidad de pares de Gartner sobre prohibir las herramientas de IA: “Las prohibiciones no funcionan. Incluso sin políticas, esa medida daña la innovación y transmite al personal y al mundo una imagen errónea de nuestra organización.”
Aquí tienes algunas medidas prácticas de gobernanza que puedes implementar ya en tu organización:
¿Puede la tecnología proporcionar una solución escalable? Por supuesto.
F5 ha anunciado hoy la detección y prevención de fugas de datos para proteger las cargas de trabajo de IA, y lanzará en los próximos meses nuevas y potentes capacidades diseñadas para ayudarte a mitigar de forma integral el riesgo de Shadow AI—especialmente el uso no autorizado de herramientas de IA a través de canales cifrados (que es el estándar en la mayoría de las API de IA y plataformas SaaS).
Estate atento a próximos anuncios. Mientras tanto, consulta todas las novedades de F5 AI en nuestra página Accelerate AI.
GARTNER es una marca registrada y una marca de servicio de Gartner, Inc. y/o sus filiales en EE.UU. e internacionalmente y se utiliza aquí con permiso. Todos los derechos reservados.
1Gartner, Maverick Research: Los CISO deben transformar su papel o corren el riesgo de quedar obsoletos, 19 de junio de 2025