Con la tecnología nueva, es fácil ilusionarse. Todos recuerdan la emoción de su primer prompt con un LLM, la primera vez que usaron un navegador web, esa idea sorprendente de que tus datos viven en una “nube”. Pero cada innovación trae consigo un equipo exhausto de profesionales de seguridad encargados de encontrar la manera de que todos podamos utilizar estas herramientas con seguridad. Es fácil centrarse en los titulares y las oportunidades futuras, de las que la IA está llena, pero mientras definimos el papel de F5 en la seguridad de la IA, consideramos que era momento de dar un paso atrás y preguntarte: ¿cómo ve la comunidad de seguridad la IA?
Porque en F5 nos obsesionamos con nuestros clientes, analizamos cada comentario relacionado con IA del último año (julio de 2024 – junio de 2025) entre los principales usuarios de r/cybersecurity, la mayor comunidad de profesionales de seguridad en Internet. Clasificamos cada comentario y usuario según su sentimiento y extraímos los puntos de dolor expresados o subyacentes en cada caso.
El 48% de los profesionales se muestran optimistas y ya lo integran en su stack, mientras que el resto sigue escéptico o preocupado por lo que traerá el futuro.
La mitad de los equipos de SecOps confía en la IA. Emplean herramientas potenciadas por IA en sus stacks, automatizan tareas repetitivas y usan asistentes de IA para priorizar alertas.
“Me impresiona lo eficaz que es detectando nuevos patrones de intrusión.”
“La IA ha llegado para quedarse, úsala como tu complemento, tu aliada.”
La otra mitad se reparte entre el temor, basado en la compleja labor de proteger los sistemas de IA, y el escepticismo sobre que la IA avance mucho más de lo que ya ha logrado.
IA = Aplicaciones que entendemos muy poco, construidas sobre otras que llevamos décadas asegurando pésimamente.
La tensión entre las exigencias de datos de la IA y los principios que rigen la ciberseguridad ha puesto la seguridad de los datos en el centro del debate. Al comenzar el año, era la principal preocupación de los profesionales de seguridad y ha ido en aumento conforme las empresas aceleran la adopción de la IA.
“Lo que hace efectiva a la IA son los datos. Cuantos más datos puede acceder, más eficaz es. Este modelo entra en contradicción directa con asegurar el acceso a los datos mediante controles de acceso, segmentación de la red y el principio de mínimo privilegio. Si adoptas IA a gran escala, tienes que eliminar muchos controles de seguridad que bloquean el acceso del modelo de IA a los datos. Las opciones actuales para las empresas son tener IA eficaz o mantener la seguridad.”
El problema más relevante en este ámbito es la IA oculta, es decir, la interacción no autorizada de usuarios con los sistemas de IA. Sin importar el grado de adopción de IA de tu organización, temprana o avanzada, este problema persiste sin depender de su madurez.
La seguridad de datos domina la conversación, pero la observabilidad y la detección de anomalías son las siguientes prioridades principales de la IA en SecOps. Mientras los proveedores destacan lo que la IA puede hacer para apoyar los flujos de trabajo de seguridad, los profesionales subrayan la necesidad de equilibrio: “Los agentes de seguridad con IA tienen un límite en lo que pueden hacer, y siempre debe haber una persona supervisando.” Un analista compartió su experiencia automatizando con IA el triaje L1 de alertas EDR para reducir el MTTT de 45 minutos a menos de dos, pero advirtió, “esto requería reglas estrictas, reglas estrictas y más reglas estrictas.” La petición es clara: establece visibilidad y trazabilidad constante en las interacciones de IA, automatiza tareas repetitivas y conserva las decisiones estratégicas para las personas.
La mejor forma de entender la IA es imaginar que multiplicas a tus atacantes con decenas, docenas o cientos de empleados… Hoy estimo que el 5 % superior de los atacantes ha aumentado su efectividad entre un 50 % y un 300 %. No hablamos de una amenaza teórica, sino de un multiplicador de fuerza que eleva el nivel mínimo para los oportunistas y amplía el alcance de los actores detrás de amenazas complejas. En la práctica, se abordan estos cambios desde dos perspectivas: técnicas adversarias nuevas como la inyección de comandos o ataques de jailbreak dirigidos a sistemas de IA, y una democratización malintencionada de ataques de ingeniería social como el phishing y los deepfakes. Las preocupaciones sobre esta última modalidad aumentan a medida que los modelos y agentes se integran con más herramientas y datos.
Otro 12% de los puntos críticos destacaron que el comportamiento del modelo y la calidad de los resultados son un riesgo de seguridad por sí mismos. Las mayores preocupaciones fueron las alucinaciones, las deficiencias en la precisión y los resultados dañinos, pero la principal fue la escalada de privilegios: la IA accede a datos o realiza tareas para las que no tiene permisos. Aquí es donde vemos cómo SecOps impulsa medidas prácticas de control: moderación de contenido ajustada al riesgo empresarial, alineación de políticas y permisos claros para modelos y agentes.
Al analizarlo cuidadosamente y a veces de manera explícita, los equipos de seguridad esperan que los proveedores alcancen un nivel más alto.
Prioriza la protección de los datos, adapta la defensa a las amenazas adversas emergentes, basa la observabilidad en todas las interacciones y diseña con una gobernanza responsable de la IA. Seguiremos compartiendo conocimientos obtenidos en pruebas reales, publicando directrices prácticas que puedas aplicar y manteniendo la transparencia sobre cómo reducimos riesgos. Recordando el comentario sobre “IA segura O efectiva”, esperamos sustituir ese ‘o’ por un ‘y’.
Escuchamos la llamada, esta es nuestra respuesta.