En los últimos 18 meses, la IA generativa (GenAI) ha conquistado el mundo.
Nuevos servicios, como ChatGPT y DALL-E, pueden generar texto, imágenes y código de software en respuesta a indicaciones en lenguaje natural de los usuarios.
Ahora son posibles nuevos niveles de productividad y, según una investigación reciente de Bloomberg Intelligence, el mercado de GenAI podría valer hasta 1,3 billones de dólares en 2032.
Ahora que el valor de esta tecnología es claramente evidente, estamos empezando a ver un impulso creciente para crear versiones específicas para cada industria y región de los modelos de lenguaje grande (LLM, por sus siglas en inglés) que permiten a las computadoras generar texto creíble y otros contenidos.
Los LLM son modelos de lenguaje estadístico entrenados con una enorme cantidad de datos. Se pueden utilizar para generar y traducir texto y otros contenidos, así como para realizar tareas de procesamiento del lenguaje natural. Los LLM generalmente se basan en arquitecturas de aprendizaje profundo.
En todo el mundo, los operadores de telecomunicaciones pioneros ya se están preparando para desempeñar un papel importante en la impartición y la seguridad de estos LLM especializados. En particular, anticipan una fuerte demanda de soluciones GenAI integrales por parte de empresas, startups, universidades y administraciones públicas que no pueden permitirse construir la infraestructura informática necesaria por sí mismas.
Es una tendencia llamativa y, con las medidas de seguridad adecuadas, las soluciones LLM como servicio pronto podrían usarse para desarrollar aplicações GenAI específicas para la atención médica, la educación, el transporte y otros sectores clave (incluidas las telecomunicaciones).
Retos
Entonces, ¿cuáles son los próximos pasos para que todo funcione y cuáles son algunos de los desafíos clave que tenemos por delante?
Como deben ser muy receptivos, altamente confiables y estar siempre disponibles, muchos LLM probablemente estarán distribuidos en múltiples nubes y ubicaciones de borde de red.
De hecho, con la latencia adecuada, GenAI será parte integral de las propuestas de borde de las empresas de telecomunicaciones, ya que los usuarios necesitarán respuestas “conversacionales” en tiempo real.
Para las empresas de telecomunicaciones que han tenido dificultades para aumentar sus ingresos, ofrecer infraestructura de borde para respaldar sistemas GenAI especializados podría ser un nuevo mercado importante . Bloomberg Intelligence estima que el mercado de infraestructura como servicio GenAI (utilizado para la capacitación de LLM) tendrá un valor de US$247 mil millones para 2032.
Sin embargo, aquellos que esperan ganar el premio gordo de GenAI deben actuar con cuidado.
Las arquitecturas distribuidas, que pueden aumentar la superficie de ataque potencial, requieren soluciones de seguridad robustas y escalables para evitar la fuga de datos e información personal identificable, tanto en las fases de entrenamiento de la IA como en las de inferencia.
A medida que los actores maliciosos emplean cada vez más técnicas de movimiento lateral para abarcar múltiples sistemas interconectados, es fundamental que las empresas de telecomunicaciones aseguren tanto las aplicaciones como las API que terceros usarán para acceder al LLM como servicio. Para ayudar a generar conciencia en este frente, la Open Source Foundation for Aplicação Security (OWASP) inició recientemente un nuevo proyecto para educar a los desarrolladores, diseñadores, arquitectos, gerentes y organizaciones acerca de los posibles riesgos de seguridad al implementar y administrar LLM.
Una cosa es segura: las empresas de telecomunicaciones deben mantener la confianza de los clientes necesaria para convertirse en actores creíbles en este mercado, ya que los sistemas GenAI a menudo necesitarán procesar datos personales o comercialmente sensibles. Por esa razón, muchos gobiernos y reguladores están interesados en que estos sistemas funcionen con capacidad computacional ubicada dentro de sus jurisdicciones. Mientras tanto, las empresas también son reacias a compartir datos sensibles que puedan amenazar su propiedad intelectual y, por lo tanto, prefieren utilizar ofertas privadas de LLM.
Otras cuestiones importantes incluyen la forma en que los clústeres de IA actúan como comunidades de usuarios virtuales, lo que requiere rutas de datos de alto rendimiento para acceder a los datos que residen en los repositorios privados de países y empresas.
Además, el impacto de la IA en el tráfico y la infraestructura de la red se verá cada vez más influenciado por los planes de los países y las empresas de alojar por sí mismos aplicaciones de IA. Las preocupaciones sobre las alucinaciones, los derechos de autor, la seguridad y el impacto ambiental de la IA están impulsando a muchos a buscar mayor seguridad y control sobre los datos. Además, necesitarán nuevas formas de mitigar la tensión prevista sobre las GPU. Todas estas consideraciones impactan el TCO general de las infraestructuras de IA.
Entran las empresas de telecomunicaciones: protección flexible y escalable en múltiples entornos
Las empresas de telecomunicaciones pueden desempeñar un papel importante en la revolución de la IA. Poseen infraestructuras nacionales, tienen una oferta B2B existente y son una opción natural para convertirse en proveedores de IA como servicio.
Por ejemplo, F5 ya está ayudando a una empresa de telecomunicaciones de Europa a asegurar su nueva propuesta GenAI. En este caso, nuestro cliente está utilizando las tecnologías Nvidia DGX Super POD y Nvidia AI Enterprise para desarrollar el primer LLM entrenado de forma nativa en un idioma local. El objetivo es capturar los matices del idioma, así como los detalles de su gramática, contexto e identidad cultural.
Para proteger la solución en múltiples sitios de borde, la empresa de telecomunicaciones aprovechará F5 Distributed Cloud Web Aplicação and API Protection (WAAP) , proporcionado como un servicio basado en la nube. También están aprovechando los clústeres ADC de F5 para realizar el equilibrio de carga para la nueva plataforma de IA en toda su infraestructura de borde.
Fundamentalmente, las soluciones de F5 se pueden emplear en centros de datos de múltiples inquilinos y en la nube pública, así como internamente y en su infraestructura de borde.
Es más, F5 Distributed Cloud WAAP y las soluciones de seguridad API asociadas pueden escalar rápidamente a medida que aumenta el tráfico, lo que reduce el costo general de brindar LLM como servicio. F5 también proporciona visibilidad del flujo de tráfico, la latencia y los tiempos de respuesta que las empresas de telecomunicaciones y otros proveedores de servicios administrados necesitarán para ofrecer a los clientes empresariales acuerdos de nivel de servicio.
Otra forma en que F5 puede ayudar es abordando el hecho de que las tareas de inferencia LLM e IA son conocidas por requerir muchos recursos. Estas cargas de trabajo exigen amplios intercambios de datos y a menudo generan cuellos de botella debido a la necesidad de intercambios de datos seguros a gran escala. Esto puede resultar en una menor utilización de recursos valiosos, lo que genera mayores costos operativos y demoras en la obtención de los resultados deseados.
Si juegan bien sus cartas y logran aprovechar con inteligencia soluciones de seguridad escalables y robustas, las empresas de telecomunicaciones tienen todo lo necesario para convertirse en proveedores confiables de LLM específicos para cada industria y país. Quienes triunfen, sin duda, obtendrán una importante ventaja competitiva en los próximos años.
¿Quieres saber más? Reserva una reunión con F5 en el Mobile World Congress de Barcelona del 26 al 29 de febrero (Pabellón 5, Stand 5C60)