Lori MacVittie, ingeniera distinguida
Laurent Quérel, ingeniero distinguido
Oscar Spencer, ingeniero principal
Ken Arora, ingeniero distinguido
Kunal Anand, Director de Innovación
James Hendergart, Sr. Director. Investigación tecnológica
Si bien la IA generativa sin duda ha tenido uno de los mayores impactos en la empresa en 2024, no es la única tendencia o tecnología que está generando revuelo. Una vorágine de costos y complejidad está impulsando la repatriación de cargas de trabajo desde la nube pública, especialmente almacenamiento y datos. Sin duda, este movimiento también está impulsado por la necesidad de que los centros de datos empresariales aprovechen las promesas de la IA.
Esto deja a las empresas con un patrimonio de TI híbrido distribuido entre la nube pública, las instalaciones locales y la edge computing. Si bien anticipamos cambios significativos en las cargas de trabajo desde la nube pública a las instalaciones locales, no creemos que las empresas se involucren por completo en ninguna ubicación. Seguirán siendo como han sido, firmemente híbridos.
Esto deja a la empresa con desafíos importantes para estandarizar la seguridad, la entrega y las operaciones en entornos dispares. La confusa variedad de API y herramientas sigue siendo una amenaza existente para la estabilidad y la escala de los negocios digitales.
Este es el contexto en el que F5 explora las tecnologías y cómo podrían afectar a la empresa y, posteriormente, el impacto en la entrega y seguridad de las aplicação . Las consecuencias informan nuestros planes, nuestra estrategia y una mayor exploración de la tecnología emergente. Con esa perspectiva, un grupo selecto de expertos en tecnología de F5 ofrece sus conocimientos sobre las cinco tecnologías clave que creemos que tendrán el mayor impacto en la empresa y, por lo tanto, en la entrega de aplicação en 2025.
Esta realidad es la que impulsa la primera de nuestras tecnologías a tener en cuenta en 2025: WebAssembly (Wasm). Wasm ofrece un camino hacia la portabilidad en todo el patrimonio multicloud híbrido, brindando la capacidad de implementar y ejecutar aplicações en cualquier lugar donde un entorno de ejecución de Wasm pueda operar. Pero Wasm es más que una mera manifestación de la promesa de portabilidad cruzada del código. Ofrece beneficios relacionados con el rendimiento y la seguridad al tiempo que abre nuevas posibilidades para enriquecer la funcionalidad de las aplicações basadas en navegador.
Oscar Spencer, ingeniero principal, explica:
No se espera que WebAssembly en el navegador experimente cambios drásticos a lo largo de 2025. La actualización más significativa es el soporte continuo para WebAssembly Garbage Collection (GC), que ya se ha integrado en Chrome. Esto beneficiará a lenguajes como Dart y Kotlin que dependen en gran medida de GC y buscan expandir su presencia en entornos de navegador. También existe potencial para mejoras en el uso de Python en los navegadores, aunque todavía es pronto para predecir el impacto total.
Sin embargo, los avances más importantes están ocurriendo fuera del navegador con el lanzamiento de WASI (WebAssembly System Interface) Preview 3. Esta actualización introduce async y streams, solucionando un problema importante con la transmisión de datos en varios contextos, como los servidores proxy. WASI Preview 3 proporciona métodos eficientes para gestionar el movimiento de datos dentro y fuera de los módulos Wasm y permite un control preciso sobre el manejo de datos, como modificar encabezados sin procesar cuerpos de solicitud completos. Además, la introducción de async mejorará la capacidad de composición entre lenguajes, lo que permitirá interacciones fluidas entre el código async y sync, algo especialmente beneficioso para los lenguajes nativos de Wasm. A medida que los estándares WASI se estabilicen, podemos esperar un aumento significativo en la adopción de Wasm, proporcionando a los desarrolladores herramientas sólidas y una plataforma confiable para desarrollar estos avances.
Suponiendo que Wasm puede resolver algunos de los problemas de portabilidad inherentes a las tecnologías anteriores, trasladaría los problemas de portabilidad con los que luchan hoy el 95% de las organizaciones a otras capas críticas de la pila de tecnología de TI, como las operaciones.
La carrera para afrontar ese desafío es la IA generativa y el futuro cada vez más real que es AIOps. Esta fantástica visión de las operaciones (cambios y políticas impulsados por análisis basados en IA informados por la observabilidad de pila completa) está cada día más cerca de la realidad gracias a la increíble velocidad evolutiva de la IA generativa.
En menos de un año, han surgido agentes que reemplazan las funciones de la IA. Esta capacidad, denominada Agentic AI, está lista no solo para remodelar las operaciones sino también para desplazar mercados enteros de software empresarial. Basta con observar el uso de IA para automatizar flujos de trabajo que han estado dominados por SaaS durante casi dos décadas para ver cuán disruptiva será esta capacidad.
Laurent Quérel, ingeniero distinguido, explica:
Los agentes de codificación autónomos están preparados para revolucionar el desarrollo de software al automatizar tareas clave como la generación, las pruebas y la optimización de código. Estos agentes agilizarán significativamente el proceso de desarrollo, reduciendo el esfuerzo manual y acelerando los plazos del proyecto. Mientras tanto, la aparición de grandes agentes multimodales (LMAs) ampliará las capacidades de la IA más allá de la búsqueda basada en texto a interacciones más complejas. Estos agentes interactuarán con páginas web y extraerán información de diversos formatos, incluidos texto, imágenes y vídeos, mejorando las formas en que accedemos y procesamos el contenido en línea.
A medida que los agentes de IA transforman Internet, veremos el desarrollo de una infraestructura de navegación específica para cada agente, diseñada para facilitar interacciones seguras y eficientes con los sitios web. Este cambio podría alterar industrias como el comercio electrónico al automatizar tareas web complejas, dando lugar a experiencias en línea más personalizadas e interactivas. Sin embargo, a medida que estos agentes se integren más a la vida diaria, nuevos protocolos y regulaciones de seguridad serán esenciales para gestionar las preocupaciones relacionadas con la autenticación de la IA, la privacidad de los datos y el posible mal uso. Se espera que para 2028, una parte importante del software empresarial incorpore agentes de IA, transformando los procesos de trabajo y permitiendo la toma de decisiones en tiempo real a través de una generación de tokens más rápida en flujos de trabajo iterativos. Esta evolución también conducirá a la creación de nuevas herramientas y plataformas para el desarrollo web impulsado por agentes, lo que marcará un hito significativo en el panorama digital.
Pero la verdad es que para aprovechar plenamente las ventajas de la IA se necesitan datos, y muchos. Un desafío importante dado que casi la mitad (47%) de las organizaciones admiten no tener una estrategia de datos para IA . No es un desafío trivial. La cantidad de datos que posee una organización (estructurados, no estructurados y métricas en tiempo real) es asombrosa. El simple hecho de catalogar dichos datos requiere una inversión significativa.
Si a esto le sumamos las preocupaciones en materia de seguridad debido al drástico aumento de las superficies de ataque, las nuevas regulaciones sobre privacidad y cumplimiento de datos y la introducción de nuevas fuentes de datos y vectores de amenaza, tenemos una tormenta perfecta para el surgimiento de tecnologías de clasificación de datos robustas y en tiempo real. Es decir, se espera que los modelos de IA generativa superen a los sistemas tradicionales basados en reglas en la detección y clasificación de datos empresariales.
James Hendergart, Sr. Director. La investigación tecnológica explica:
La clasificación de datos adquirió mayor importancia en 2024 debido a varias tendencias convergentes. La explosión de datos, dispositivos y aplicações, junto con la transformación digital en curso, aumentó drásticamente la superficie de ataque de las amenazas cibernéticas. Este aumento de las vulnerabilidades, junto con las persistentes violaciones de datos, subrayó la necesidad crítica de una protección de datos sólida. Al mismo tiempo, la expansión de las regulaciones destinadas a proteger la privacidad de los datos y garantizar el cumplimiento impulsó aún más a las organizaciones a priorizar la clasificación de datos porque la clasificación es el punto de partida para la privacidad. Además, el auge de la IA generativa introdujo nuevas fuentes de datos y vectores de ataque, lo que agregó complejidad a los desafíos de seguridad de datos .
Aproximadamente el 80% de los datos empresariales no están estructurados. De cara al futuro, los modelos de IA generativos se convertirán en el método preferido para detectar y clasificar datos empresariales no estructurados, ofreciendo índices de precisión superiores al 95%. Estos modelos se volverán más eficientes con el tiempo, requiriendo menos potencia computacional y permitiendo tiempos de inferencia más rápidos. Soluciones como la gestión de la postura de seguridad de datos (DSPM), la prevención de pérdida de datos (DLP) y la gobernanza del acceso a datos dependerán cada vez más de la detección y clasificación de datos confidenciales como base para brindar una variedad de servicios de seguridad. A medida que los servicios de distribución de datos y redes convergen, la consolidación de plataformas impulsará a los proveedores a mejorar sus ofertas, con el objetivo de capturar participación de mercado al proporcionar plataformas integrales, rentables y fáciles de usar que satisfagan las cambiantes necesidades empresariales.
El deseo compartido entre las organizaciones de aprovechar la IA generativa para todo, desde la productividad hasta la automatización del flujo de trabajo y la creación de contenido, está llevando a la introducción de un nuevo patrón de arquitectura de aplicação a medida que las organizaciones comienzan a implementar capacidades de IA. Este patrón amplía los tres niveles tradicionales de enfoque (cliente, servidor y datos) para incorporar un nuevo nivel de IA, donde se implementa la inferencia.
Este nuevo nivel está ayudando a impulsar la definición de AI Gateways , la cuarta de nuestras tecnologías a tener en cuenta. Las puertas de enlace de IA no son simplemente puertas de enlace de API o puertas de enlace web. Si bien sus capacidades básicas son similares a las de las puertas de enlace API, las necesidades arquitectónicas especiales de tráfico bidireccional, no estructurado y una creciente base de usuarios de bots "buenos" requieren nuevas capacidades.
Ken Arora, ingeniero distinguido, explica:
Las puertas de enlace de IA están surgiendo como la evolución natural de las puertas de enlace de API, diseñadas específicamente para abordar las necesidades de las aplicações de IA. De manera similar a cómo los agentes de seguridad de acceso a la nube (CASB) se especializan en proteger aplicaciones SaaS empresariales, las puertas de enlace de IA se centrarán en desafíos únicos como alucinaciones, sesgos y jailbreak, que a menudo resultan en divulgaciones de datos no deseadas. A medida que las aplicações de IA ganan más autonomía, las puertas de enlace también deberán proporcionar visibilidad sólida, gobernanza y seguridad en la cadena de suministro, garantizando la integridad de los conjuntos de datos de entrenamiento y los modelos de terceros, que ahora son vectores de ataque potenciales. Además, a medida que las aplicaciones de IA crecen, cuestiones como los ataques de denegación de servicio distribuido (DDoS) y la gestión de costos se vuelven críticos, dado el alto gasto operativo de las aplicações de IA en comparación con las tradicionales. Además, un mayor intercambio de datos con aplicaciones de IA para tareas como el resumen y el análisis de patrones requerirá una protección más sofisticada contra fugas de datos.
En el futuro, las puertas de enlace de IA deberán soportar servidores proxy tanto inversos como directos, y estos últimos desempeñarán un papel fundamental en el corto plazo, a medida que el consumo de IA supere su producción. Los proxies intermedios también serán esenciales para gestionar las interacciones entre componentes dentro de las aplicações de IA, como entre bases de datos vectoriales y modelos de lenguaje grandes (LLM). La naturaleza cambiante de las amenazas también requerirá un cambio en la forma en que abordamos la seguridad. A medida que muchos clientes se convierten en agentes automatizados que actúan en nombre de humanos, los modelos actuales de protección contra bots evolucionarán para discriminar entre bots legítimos y maliciosos. Las puertas de enlace de IA deberán incorporar políticas avanzadas como autenticación delegada, análisis de comportamiento y aplicación de privilegios mínimos, tomando prestados los principios de confianza cero. Esto incluirá políticas conscientes de los riesgos y una mayor visibilidad, garantizando que las brechas de seguridad impulsadas por la IA se contengan de manera efectiva mientras se mantiene una gobernanza sólida.
Lo más urgente es la capacidad de abordar no sólo las preocupaciones tradicionales de seguridad en torno a los datos (exfiltración, fugas), sino también las cuestiones éticas con alucinaciones y sesgos. A nadie le sorprende ver que estos últimos se clasifican como riesgos significativos en casi todas las encuestas sobre el tema.
Dados los problemas con las alucinaciones y los sesgos, sería impensable ignorar el uso creciente de la generación aumentada por recuperación (RAG) y los modelos de lenguaje pequeños (SLM). RAG se ha convertido rápidamente en un patrón de arquitectura fundamental para la IA generativa, particularmente debido a su capacidad para mejorar la especificidad y precisión de la información producida por grandes modelos de lenguaje. Al combinar las fortalezas de los sistemas de recuperación con modelos generativos, RAG proporciona una solución a uno de los desafíos clave en IA: las alucinaciones o la generación de información incorrecta o engañosa.
Las organizaciones que aún no integran RAG en sus estrategias de IA se están perdiendo mejoras significativas en la precisión y relevancia de los datos, especialmente para tareas que requieren recuperación de información en tiempo real y respuestas contextuales. Pero a medida que se amplían los casos de uso de la IA generativa, las organizaciones están descubriendo que la RAG por sí sola no puede resolver algunos problemas.
Lori MacVittie, ingeniera distinguida, explica:
Las crecientes limitaciones de los LLM, en particular su falta de precisión al abordar conocimientos específicos de un dominio o de una organización, están acelerando la adopción de modelos de lenguaje pequeños. Si bien los LLM son increíblemente poderosos en aplicações de conocimiento general, a menudo fallan cuando se les asigna la tarea de brindar información precisa y matizada en campos especializados. Esta brecha es donde los SLM brillan, ya que están adaptados a áreas de conocimiento específicas, lo que les permite ofrecer resultados más confiables y enfocados. Además, los SLM requieren significativamente menos recursos en términos de energía y ciclos de computación, lo que los convierte en una solución más rentable para las empresas que no necesitan las amplias capacidades de un LLM para cada caso de uso.
En la actualidad, los SLM tienden a ser específicos de la industria y a menudo están capacitados en sectores como la atención médica o el derecho. Aunque estos modelos están limitados a dominios más estrechos, son mucho más factibles de entrenar e implementar que los LLM, tanto en términos de costo como de complejidad. A medida que más organizaciones buscan soluciones que se alineen mejor con sus necesidades de datos especializados, se espera que los SLM reemplacen a los LLM en situaciones donde los métodos de generación aumentada por recuperación por sí solos no pueden mitigar por completo las alucinaciones. Con el tiempo, anticipamos que los SLM dominarán cada vez más los casos de uso donde la alta precisión y eficiencia son primordiales, ofreciendo a las organizaciones una alternativa más precisa y eficiente en el uso de recursos que los LLM.
La necesidad de modelos de IA más eficientes que puedan manejar la creciente complejidad de las aplicações modernas sin requerir enormes recursos computacionales se está convirtiendo rápidamente en una necesidad existente. Los modelos de transformador, aunque potentes, tienen limitaciones en escalabilidad, uso de memoria y rendimiento, especialmente a medida que aumenta el tamaño de los modelos de IA. Como resultado, existe un fuerte impulso para desarrollar arquitecturas que mantengan una alta precisión y al mismo tiempo reduzcan la sobrecarga computacional. Además, la demanda de democratizar la IA (hacerla accesible a través de diversos dispositivos y casos de uso) acelera aún más la adopción de innovaciones como los modelos de lenguaje de 1 bit de tamaño, que están diseñados para optimizar la precisión y minimizar los requisitos de hardware.
Estas necesidades están impulsando la evolución de la IA para ir más allá de los transformadores.
Kunal Anand, director de Innovación, explica:
Está surgiendo un nuevo paradigma: la convergencia de nuevas arquitecturas de redes neuronales con técnicas de optimización revolucionarias que prometen democratizar la implementación de IA en diversas aplicações y dispositivos.
La comunidad de IA ya está presenciando señales tempranas de innovaciones posteriores al transformador en el diseño de redes neuronales. Estas nuevas arquitecturas pretenden abordar las limitaciones fundamentales de los modelos de transformadores de corriente manteniendo o mejorando sus notables capacidades para comprender y generar contenido. Entre los desarrollos más prometedores está la aparición de modelos altamente optimizados, en particular modelos de lenguaje de 1 bit de tamaño. Estas innovaciones representan un cambio fundamental en el modo en que abordamos la eficiencia del modelo, ofreciendo reducciones drásticas en los requisitos de memoria y la sobrecarga computacional, manteniendo al mismo tiempo el rendimiento del modelo a pesar de la precisión reducida.
El impacto de estos avances se extenderá por todo el ecosistema de IA en múltiples oleadas. Los principales efectos se harán evidentes inmediatamente en la reducción de los requisitos de recursos para la implementación de la IA. Los modelos que antes demandaban importantes recursos computacionales y de memoria funcionarán eficientemente con una sobrecarga significativamente menor. Esta optimización desencadenará un cambio en la arquitectura informática, en la que las GPU podrían especializarse en tareas de entrenamiento y ajuste, mientras que las CPU manejarán cargas de trabajo de inferencia con una capacidad nueva.
Estos cambios catalizarán una segunda ola de efectos centrados en la democratización y la sostenibilidad. A medida que disminuyan los requisitos de recursos, la implementación de IA será accesible para diversas aplicações y dispositivos. Los costos de infraestructura disminuirán sustancialmente, lo que permitirá capacidades de edge computing que antes eran poco prácticas. Al mismo tiempo, la menor intensidad computacional generará beneficios ambientales a través de un menor consumo de energía y una menor huella de carbono, lo que hará que las operaciones de IA sean más sustentables.
Estos avances permitirán capacidades sin precedentes en dispositivos de borde, mejoras en el procesamiento en tiempo real y una integración de IA rentable en todas las industrias. El panorama informático evolucionará hacia soluciones híbridas que combinen diferentes arquitecturas de procesamiento optimizadas para cargas de trabajo específicas, creando una infraestructura de IA más eficiente y versátil.
Las implicaciones de estos avances se extienden mucho más allá de las mejoras técnicas. Sugieren un futuro donde la implementación de IA se vuelve más versátil y consciente del medio ambiente manteniendo al mismo tiempo el rendimiento. A medida que avanzamos hacia 2025, estos cambios probablemente acelerarán la integración de la IA en las aplicações cotidianas, creando nuevas oportunidades de innovación y eficiencia en todas las industrias.
El año pasado ciertamente ha sido un año de importantes cambios, evolución y sorpresas en la tecnología. Es razonable creer que el próximo año traerá más de lo mismo. Después de todo, el potencial total de la IA generativa aún no se ha explorado, y eso significa que es probable que surjan casos de uso adicionales y disruptivos para esta apasionante tecnología.
Si las organizaciones aún no están experimentando con IA generativa, deberían hacerlo. El uso de servicios ciertamente proporciona un buen punto de partida para casos de uso básicos como bots de chat y motores de recomendación, pero el potencial de la IA generativa va mucho más allá de las conversaciones y la generación de nuevos videos de gatos.
Se espera ver más cambios y nuevas formas de aprovechar la IA seguirán surgiendo a medida que esta continúa remodelando los cimientos mismos de la tecnología.