Estamos viviendo una transformación fundamental en nuestra comprensión de la tecnología y su funcionamiento, en múltiples frentes. Para mostrar cómo las organizaciones enfrentan estos cambios, F5 colaboró con SlashData, una destacada firma de investigación de mercado especializada en tecnología, para encuestar a cientos de líderes y profesionales de TI, seguridad y desarrollo de software en diversos sectores y regiones del mundo.
Los participantes fueron usuarios de proyectos NGINX open source, NGINX Open Source y productos comerciales F5 NGINX. Lo que aprendimos confirma la urgencia que sienten las organizaciones para realizar cambios inmediatos en contenerización, seguridad, plataformas para desarrolladores e IA. A continuación, presentamos los hallazgos clave de nuestra Encuesta Anual NGINX 2025.
F5 NGINX se ha consolidado como la opción principal para acceder a la infraestructura de IA, con los proveedores líderes de hardware y software de IA que lo eligen como su proxy inverso y controlador de entrega recomendado para aplicaciones de IA. La encuesta mostró un claro avance entre los usuarios de NGINX y la comunidad de entrega de aplicaciones en general, quienes respaldan un futuro impulsado por IA.
Uso del agente de IA: Al preguntarles sobre su vínculo con tareas de IA agente (ver Figura 1), los encuestados señalaron que “Configurar NGINX” registra la adopción más alta actualmente, con un 25%, seguido de cerca por “optimización del tráfico de red y balanceo de carga” con un 24%. El “despliegue y escalado de infraestructura”, junto con la “remediación de vulnerabilidades de seguridad”, los usa actualmente el 23% de los entrevistados.
Compromiso combinado: Al combinar las respuestas de quienes usan y experimentan con IA agentiva, el “análisis de registros y resolución proactiva de problemas” lidera con un 48%. “Configuración de NGINX” y “despliegue y escalado de infraestructura” empatan con un 46% cada uno, seguidos por la “optimización del tráfico de red” con un 45%.
Interés futuro más destacado: “Detección y corrección de desviaciones” generó el interés futuro más alto con un 33%, seguido de “monitorización de despliegues NGINX” con un 32% y “alertas y gestión inicial de incidentes” con un 31%.
Hardware especializado: El 25 % de los encuestados ejecuta cargas de trabajo en GPUs, TPUs o FPGAs, lo cual es significativo en una infraestructura tradicionalmente enfocada en computación general (ver Figura 2). Esperamos que esta cifra siga creciendo debido a varios factores clave, como las mejoras en modelos de IA más pequeños, la facilidad para ejecutar estos modelos en infraestructura cloud-native como Docker y en hiperescaladores de la nube, y la externalización de procesos de entrega de aplicaciones (como cifrado y descarga de SSL a NPUs y FPGAs, inferencia de IA desplegada en GPUs y TPUs, entre otros).
Principales barreras: Los encuestados identificaron las preocupaciones de seguridad (26%) y la falta de confianza en la exactitud (24%) como los principales obstáculos para integrar la IA. La complejidad de la integración, las restricciones regulatorias y de cumplimiento, y el conocimiento limitado sobre las capacidades del agente, se ubicaron en un 17% cada uno.
La revolución nativa en la nube sigue ganando fuerza más de una década después de que empezara con contenedores y Kubernetes. Aunque la adopción de los elementos clave de la nube nativa es casi universal, su implantación completa aún queda lejos (ver Figura 3).
Concretamente, nuestra encuesta reveló:
En la última década, muchas organizaciones tecnológicas han adoptado las API como mecanismo clave para conectar sus operaciones internas y externas. En arquitecturas cloud-native, el enfoque API-first es un principio fundamental de diseño. Por ello, el 86 % de los encuestados utiliza gateways de API para gestionar sus infraestructuras API (ver Figura 4).
Aunque la mayoría de las organizaciones usan APIs y las puertas de enlace de API son frecuentes, muchas siguen sin adoptar prácticas maduras de seguridad para ellas (véase la Figura 5). El 86% de las organizaciones utiliza APIs, pero solo el 34% aplica medidas de seguridad para las APIs. Este es un riesgo enorme para la infraestructura moderna de las aplicaciones.
Menos de la mitad de los encuestados se centran en el análisis del tráfico API (43%) y la observabilidad (38%), dos elementos fundamentales de la seguridad API. Esta brecha refleja los retos que afrontas para observar y gestionar las API en general. De hecho, un 23% aplica enfoques distintos de gestión API según el equipo, una fragmentación que seguramente surge de la dificultad para que toda la organización siga el “camino dorado” clásico en la gestión de API.
El término ingeniería de plataformas se ha popularizado y ha llegado al gran público. De hecho, el 65% de los entrevistados ya ha empezado a implementar capacidades y responsabilidades de ingeniería de plataformas (véase la Figura 6). Este dato abarca desde grandes organizaciones con equipos dedicados a la plataforma hasta miembros individuales que lideran la ingeniería de plataformas en su equipo. Alrededor del 27% cuenta con pequeños equipos dedicados a la ingeniería de plataformas, y el 21% tiene roles individuales de ingeniería de plataformas dentro de los equipos de desarrollo y operaciones. Un 13% más de organizaciones dispone de equipos grandes y dedicados a la ingeniería de plataformas. Por tanto, la propuesta de valor de la ingeniería de plataformas se ha extendido y consolidado claramente.
Dicho esto, en equipos de todos los tamaños, las respuestas de la encuesta sobre los retos de la plataforma muestran dificultades en fases iniciales. Solo un 20 % de los encuestados afirmó no enfrentar retos significativos. El resto señaló que una gran variedad de desafíos en ingeniería de plataformas afectaban activamente a sus organizaciones, incluyendo problemas de seguridad y cumplimiento (18 %), mantenimiento de la documentación (16 %), actualización tecnológica (16 %) y limitaciones de recursos (14 %).
La encuesta identificó una clara diferencia entre equipos grandes y pequeños en cuanto a prioridades para la prestación de servicios y propuesta de valor. No sorprende que los equipos más grandes se centren en áreas más sofisticadas, mientras que los equipos pequeños mantengan un enfoque más tradicional de DevOps. Los equipos grandes y dedicados de ingeniería de plataforma tienden a ofrecer servicios avanzados como Base de Datos como Servicio (54 %), observabilidad (52 %), gestión de API (51 %), configuración y gestión de firewalls (54 %) y herramientas para pipelines de CI/CD (50 %).
Las empresas despliegan tecnología más rápido de lo que pueden gestionarla. La encuesta revela que las organizaciones quieren adoptar contenedores, API e ingeniería de plataformas, pero aún no están listas para proteger y operar lo que desarrollan. El fallo más grave es la seguridad de la API. Casi todas las organizaciones usan APIs, pero dos tercios carecen de protección básica. No es un riesgo a futuro; es una vulnerabilidad activa presente en producción ahora mismo.
Mientras tanto, avanzamos de verdad en áreas concretas. Los agentes de IA están a punto de asumir tareas reales de infraestructura a gran escala, más allá de simples demostraciones. Las GPU y los procesadores especializados ya son norma. En la mayoría de organizaciones, ya cuentas con equipos de ingeniería de plataformas, aunque aún definen su cometido.
Lo que importa ahora es mantener la disciplina en la ejecución. ¿Qué te recomendamos? No incorpores nuevas capacidades hasta que controles bien lo que ya tienes. Normaliza tus prácticas de gestión y seguridad de API. Genera la visibilidad necesaria para entender tus sistemas. Asignamos a los equipos de plataforma responsabilidades claras y les proporcionamos recursos para cumplirlas.
La tecnología ya permite construir una infraestructura moderna y eficiente. Es el momento de afrontar el trabajo imprescindible, aunque poco vistoso, para garantizar su seguridad y sostenibilidad.
Para conocer más sobre los productos de F5 NGINX, visita nuestra página web.