Lori MacVittie, Engenheira Distinta
Laurent Quérel, Engenheiro Distinto
Oscar Spencer, Engenheiro Principal
Ken Arora, Engenheiro Distinto
Kunal Anand, Diretor de Inovação
James Hendergart, Sr. Direção. Pesquisa de Tecnologia
Embora a IA generativa certamente tenha tido um dos maiores impactos nas empresas em 2024, ela não é a única tendência ou tecnologia que está causando impacto. Um turbilhão de custos e complexidade está impulsionando a repatriação de cargas de trabalho da nuvem pública, principalmente armazenamento e dados. Sem dúvida, esse movimento também é motivado pela necessidade de fazer com que o data house empresarial aproveite as promessas da IA.
Isso deixa as empresas com um parque de TI híbrido distribuído entre nuvem pública, computação local e de ponta. Embora antecipemos mudanças significativas nas cargas de trabalho da nuvem pública para o local, não acreditamos que as empresas irão "apostar tudo" em qualquer local. Eles permanecerão como sempre foram, firmemente híbridos.
Isso deixa a empresa com desafios significativos para padronizar a segurança, a entrega e as operações em ambientes distintos. A confusa variedade de APIs e ferramentas continua sendo uma ameaça à estabilidade e à escala dos negócios digitais.
Este é o contexto em que a F5 explora tecnologias e como elas podem impactar a empresa e, consequentemente, o impacto na entrega e segurança de aplicativos. As consequências informam nossos planos, nossa estratégia e exploração futura de tecnologias emergentes. Com essa perspectiva, um grupo seleto de especialistas em tecnologia da F5 oferece seus insights sobre as cinco principais tecnologias que acreditamos que terão o maior impacto nas empresas e, portanto, na entrega de aplicativos em 2025.
Essa realidade está impulsionando a primeira de nossas tecnologias a serem observadas em 2025, a do WebAssembly (Wasm). O Wasm oferece um caminho para a portabilidade em todo o ambiente multicloud híbrido, oferecendo a capacidade de implantar e executar aplicativos em qualquer lugar onde um tempo de execução do Wasm possa operar. Mas o Wasm é mais do que apenas uma manifestação da promessa de portabilidade cruzada de código. Ele oferece benefícios relacionados ao desempenho e à segurança, ao mesmo tempo em que abre novas possibilidades para enriquecer a funcionalidade de aplicativos baseados em navegador.
Oscar Spencer, engenheiro principal, explica:
Não se espera que o WebAssembly no navegador passe por mudanças drásticas ao longo de 2025. A atualização mais significativa é o suporte contínuo ao WebAssembly Garbage Collection (GC), que já foi integrado ao Chrome. Isso beneficiará linguagens como Dart e Kotlin, que dependem muito de GC e buscam expandir sua presença em ambientes de navegador. Também há potencial para melhorias no uso do Python em navegadores, embora ainda seja cedo para prever o impacto total.
Os maiores desenvolvimentos, no entanto, estão acontecendo fora do navegador com o lançamento do WASI (WebAssembly System Interface) Preview 3. Esta atualização introduz async e streams, resolvendo um grande problema com streaming de dados em vários contextos, como proxies. O WASI Preview 3 fornece métodos eficientes para lidar com a movimentação de dados de entrada e saída dos módulos Wasm e permite um controle preciso sobre o manuseio de dados, como modificar cabeçalhos sem processar corpos de solicitação inteiros. Além disso, a introdução do async aumentará a componibilidade entre linguagens, permitindo interações perfeitas entre códigos async e sync, o que é especialmente benéfico para linguagens nativas do Wasm. À medida que os padrões WASI se estabilizam, podemos esperar um aumento significativo na adoção do Wasm, fornecendo aos desenvolvedores ferramentas robustas e uma plataforma confiável para desenvolver esses avanços.
Supondo que o Wasm possa resolver alguns dos problemas de portabilidade inerentes às tecnologias anteriores, ele transferiria os problemas de portabilidade com os quais 95% das organizações lutam hoje para outras camadas críticas da pilha de tecnologia de TI, como as operações.
Correr para enfrentar esse desafio é a IA generativa e o futuro cada vez mais real que é o AIOps. Essa visão fantástica das operações — mudanças e políticas impulsionadas por análises baseadas em IA informadas pela observabilidade full-stack — está mais próxima da realidade a cada dia graças à incrível velocidade evolutiva da IA generativa.
Em menos de um ano, agentes surgiram para substituir as funções de IA. Chamada de Agentic AI, essa capacidade está pronta não apenas para remodelar as operações, mas também para substituir mercados inteiros de software empresarial. Basta observar o uso da IA para automatizar fluxos de trabalho que foram dominados pelo SaaS por quase duas décadas para ver o quão disruptivo esse recurso será.
Laurent Quérel, Engenheiro Emérito, explica:
Agentes de codificação autônomos estão prontos para revolucionar o desenvolvimento de software ao automatizar tarefas importantes, como geração de código, testes e otimização. Esses agentes otimizarão significativamente o processo de desenvolvimento, reduzindo o esforço manual e acelerando os cronogramas do projeto. Enquanto isso, o surgimento de Grandes Agentes Multimodais (LMAs) estenderá os recursos de IA além da pesquisa baseada em texto para interações mais complexas. Esses agentes interagirão com páginas da web e extrairão informações de vários formatos, incluindo texto, imagens e vídeos, aprimorando as maneiras como acessamos e processamos conteúdo online.
À medida que os agentes de IA remodelam a internet, veremos o desenvolvimento de uma infraestrutura de navegação específica para agentes, projetada para facilitar interações seguras e eficientes com sites. Essa mudança pode revolucionar setores como o de comércio eletrônico ao automatizar tarefas complexas da web, levando a experiências online mais personalizadas e interativas. No entanto, à medida que esses agentes se tornam mais integrados à vida cotidiana, novos protocolos e regulamentações de segurança serão essenciais para gerenciar preocupações relacionadas à autenticação de IA, privacidade de dados e possível uso indevido. Espera-se que até 2028 uma parcela significativa do software empresarial incorpore agentes de IA, transformando processos de trabalho e permitindo a tomada de decisões em tempo real por meio de geração mais rápida de tokens em fluxos de trabalho iterativos. Essa evolução também levará à criação de novas ferramentas e plataformas para desenvolvimento web orientado por agentes, marcando um marco significativo no cenário digital.
Mas a verdade é que para explorar totalmente as vantagens da IA, é preciso ter dados — e muitos. Um desafio significativo, dado que quase metade (47%) das organizações admite não ter nenhuma estratégia de dados para IA em vigor . Não é um desafio trivial. A quantidade de dados mantidos por uma organização — métricas estruturadas, não estruturadas e em tempo real — é impressionante. Simplesmente catalogar esses dados exige um investimento significativo.
Adicione preocupações de segurança devido ao aumento drástico das superfícies de ataque, novas regulamentações sobre privacidade e conformidade de dados e a introdução de novas fontes de dados e vetores de ameaças, e você terá a tempestade perfeita para o surgimento de tecnologias robustas de classificação de dados em tempo real. Ou seja, espera-se que os modelos de IA generativa superem os sistemas tradicionais baseados em regras na detecção e classificação de dados empresariais.
James Hendergart, Sr. Direção. A Technology Research explica:
A classificação de dados ganhou importância em 2024 devido a diversas tendências convergentes. A explosão de dados, dispositivos e aplicativos, juntamente com a transformação digital em andamento, aumentou drasticamente a superfície de ataque de ameaças cibernéticas. Esse aumento nas vulnerabilidades, juntamente com violações de dados persistentes, ressaltou a necessidade crítica de proteção de dados robusta. Ao mesmo tempo, a expansão das regulamentações destinadas a proteger a privacidade dos dados e garantir a conformidade levou ainda mais as organizações a priorizar a classificação de dados, porque a classificação é o ponto de partida para a privacidade. Além disso, o surgimento da IA generativa introduziu novas fontes de dados e vetores de ataque, aumentando a complexidade dos desafios de segurança de dados.
Aproximadamente 80% dos dados empresariais não são estruturados. Olhando para o futuro, os modelos de IA generativa se tornarão o método preferido para detectar e classificar dados empresariais não estruturados, oferecendo taxas de precisão acima de 95%. Esses modelos se tornarão mais eficientes com o tempo, exigindo menos poder computacional e permitindo tempos de inferência mais rápidos. Soluções como Data Security Posture Management (DSPM), Data Loss Prevention (DLP) e Data Access Governance dependerão cada vez mais da detecção e classificação de dados confidenciais como base para fornecer uma variedade de serviços de segurança. À medida que os serviços de rede e entrega de dados convergem, a consolidação da plataforma levará os fornecedores a aprimorar suas ofertas, visando capturar participação de mercado ao fornecer plataformas abrangentes, econômicas e fáceis de usar que atendam às necessidades empresariais em evolução.
O desejo compartilhado entre organizações de aproveitar a IA generativa para tudo, desde produtividade até automação de fluxo de trabalho e criação de conteúdo, está levando à introdução de um novo padrão de arquitetura de aplicativo à medida que as organizações começam a implantar recursos de IA. Esse padrão expande os três níveis tradicionais de foco — cliente, servidor e dados — para incorporar um novo nível de IA, onde a inferência é implantada.
Este novo nível está ajudando a impulsionar a definição de Gateways de IA , a quarta das nossas tecnologias a serem observadas. Gateways de IA não são apenas gateways de API ou gateways da web. Embora seus recursos básicos sejam semelhantes aos dos gateways de API, as necessidades arquitetônicas especiais de tráfego bidirecional e não estruturado e uma crescente base de usuários de bots "bons" exigem novos recursos.
Ken Arora, engenheiro renomado, explica:
Os gateways de IA estão surgindo como a evolução natural dos gateways de API, adaptados especificamente para atender às necessidades de aplicativos de IA. Semelhante à forma como os Cloud Access Security Brokers (CASBs) se especializam em proteger aplicativos SaaS empresariais, os gateways de IA se concentrarão em desafios únicos, como alucinações, preconceitos e jailbreaking, que geralmente resultam em divulgações de dados indesejadas. À medida que os aplicativos de IA ganham mais autonomia, os gateways também precisarão fornecer visibilidade, governança e segurança da cadeia de suprimentos robustas, garantindo a integridade dos conjuntos de dados de treinamento e modelos de terceiros, que agora são vetores de ataque em potencial. Além disso, à medida que os aplicativos de IA crescem, questões como ataques de negação de serviço distribuído (DDoS) e gerenciamento de custos se tornam críticos, devido ao alto custo operacional dos aplicativos de IA em comparação aos tradicionais. Além disso, o aumento do compartilhamento de dados com aplicativos de IA para tarefas como sumarização e análise de padrões exigirá proteção mais sofisticada contra vazamento de dados.
No futuro, os gateways de IA precisarão oferecer suporte a proxies reversos e diretos, com os proxies diretos desempenhando um papel fundamental no curto prazo, à medida que o consumo de IA ultrapassa a produção de IA. Os proxies intermediários também serão essenciais no gerenciamento de interações entre componentes dentro de aplicativos de IA, como entre bancos de dados vetoriais e grandes modelos de linguagem (LLMs). A natureza mutável das ameaças também exigirá uma mudança na forma como abordamos a segurança. Com muitos clientes se tornando agentes automatizados agindo em nome de humanos, os modelos atuais de proteção contra bots evoluirão para discriminar entre bots legítimos e maliciosos. Os gateways de IA precisarão incorporar políticas avançadas, como autenticação delegada, análise de comportamento e aplicação de privilégios mínimos, tomando emprestado princípios de confiança zero. Isso incluirá políticas de conscientização de riscos e visibilidade aprimorada, garantindo que as violações de segurança induzidas por IA sejam contidas de forma eficaz, mantendo ao mesmo tempo uma governança robusta.
O mais urgente é a capacidade de não apenas abordar preocupações tradicionais de segurança em torno de dados (exfiltração, vazamento), mas também questões éticas com alucinações e preconceitos. Ninguém se surpreende ao ver estes últimos classificados como riscos significativos em quase todas as pesquisas sobre o assunto.
Considerando os problemas com alucinações e preconceitos, seria impensável ignorar o uso crescente da geração aumentada de recuperação (RAG) e dos Pequenos Modelos de Linguagem (SLMs). O RAG rapidamente se tornou um padrão de arquitetura fundamental para IA generativa, principalmente devido à sua capacidade de aumentar a especificidade e a precisão das informações produzidas por grandes modelos de linguagem. Ao combinar os pontos fortes dos sistemas de recuperação com modelos generativos, o RAG fornece uma solução para um dos principais desafios da IA: alucinações ou geração de informações incorretas ou enganosas.
Organizações que ainda não integram o RAG em suas estratégias de IA estão perdendo melhorias significativas na precisão e relevância dos dados, especialmente para tarefas que exigem recuperação de informações em tempo real e respostas contextuais. Mas, à medida que os casos de uso da IA generativa se ampliam, as organizações estão descobrindo que o RAG sozinho não consegue resolver alguns problemas.
Lori MacVittie, engenheira emérita, explica:
As crescentes limitações dos LLMs, particularmente sua falta de precisão ao lidar com conhecimento específico de domínio ou de organização, estão acelerando a adoção de pequenos modelos de linguagem. Embora os LLMs sejam incrivelmente poderosos em aplicações de conhecimento geral, eles muitas vezes falham quando recebem a tarefa de fornecer informações precisas e detalhadas em campos especializados. É nessa lacuna que os SLMs se destacam, pois são adaptados a áreas de conhecimento específicas, o que lhes permite fornecer resultados mais confiáveis e focados. Além disso, os SLMs exigem significativamente menos recursos em termos de energia e ciclos de computação, o que os torna uma solução mais econômica para empresas que não precisam dos vastos recursos de um LLM para cada caso de uso.
Atualmente, os SLMs tendem a ser específicos de cada setor, geralmente treinados em setores como saúde ou direito. Embora esses modelos sejam limitados a domínios mais restritos, eles são muito mais viáveis de treinar e implantar do que os LLMs, tanto em termos de custo quanto de complexidade. À medida que mais organizações buscam soluções que se alinhem melhor às suas necessidades de dados especializados, espera-se que os SLMs substituam os LLMs em situações em que os métodos de geração aumentada de recuperação por si só não conseguem mitigar totalmente as alucinações. Com o tempo, prevemos que os SLMs dominarão cada vez mais os casos de uso em que alta precisão e eficiência são fundamentais, oferecendo às organizações uma alternativa mais precisa e eficiente em termos de recursos aos LLMs.
A necessidade de modelos de IA mais eficientes que possam lidar com a crescente complexidade dos aplicativos modernos sem exigir enormes recursos computacionais está rapidamente se tornando uma necessidade. Os modelos de transformadores, embora poderosos, têm limitações em escalabilidade, uso de memória e desempenho, especialmente à medida que o tamanho dos modelos de IA aumenta. Como resultado, há um forte impulso para desenvolver arquiteturas que mantenham alta precisão e, ao mesmo tempo, reduzam a sobrecarga computacional. Além disso, a demanda pela democratização da IA — tornando-a acessível em vários dispositivos e casos de uso — acelera ainda mais a adoção de inovações como modelos de linguagem grande de 1 bit, que são projetados para otimizar a precisão e minimizar os requisitos de hardware.
Essas necessidades estão impulsionando a evolução da IA para ir além dos transformadores.
Kunal Anand, Diretor de Inovação, explica:
Um novo paradigma está surgindo: convergir novas arquiteturas de redes neurais com técnicas de otimização revolucionárias que prometem democratizar a implantação de IA em vários aplicativos e dispositivos.
A comunidade de IA já está testemunhando os primeiros sinais de inovações pós-transformador no design de redes neurais. Essas novas arquiteturas visam abordar as limitações fundamentais dos modelos de transformadores de corrente, mantendo ou aprimorando suas capacidades notáveis de compreensão e geração de conteúdo. Entre os desenvolvimentos mais promissores está o surgimento de modelos altamente otimizados, particularmente modelos de linguagem grande de 1 bit. Essas inovações representam uma mudança fundamental na forma como abordamos a eficiência do modelo, oferecendo reduções drásticas nos requisitos de memória e na sobrecarga computacional, ao mesmo tempo em que mantêm o desempenho do modelo, apesar da precisão reduzida.
O impacto desses desenvolvimentos se espalhará pelo ecossistema de IA em múltiplas ondas. Os principais efeitos serão imediatamente aparentes na redução dos requisitos de recursos para a implantação da IA. Modelos que antes exigiam recursos computacionais e memória substanciais operarão de forma eficiente com sobrecarga significativamente menor. Essa otimização desencadeará uma mudança na arquitetura de computação, com GPUs potencialmente se tornando especializadas em tarefas de treinamento e ajuste fino, enquanto CPUs lidam com cargas de trabalho de inferência com capacidade recém-descoberta.
Essas mudanças catalisarão uma segunda onda de efeitos centrados na democratização e na sustentabilidade. À medida que os requisitos de recursos diminuírem, a implantação de IA se tornará acessível a vários aplicativos e dispositivos. Os custos de infraestrutura cairão substancialmente, permitindo recursos de computação de ponta que antes eram impraticáveis. Simultaneamente, a intensidade computacional reduzida produzirá benefícios ambientais por meio de menor consumo de energia e menor pegada de carbono, tornando as operações de IA mais sustentáveis.
Esses desenvolvimentos permitirão recursos sem precedentes em dispositivos de ponta, melhorias no processamento em tempo real e integração de IA econômica em todos os setores. O cenário da computação evoluirá em direção a soluções híbridas que combinam diferentes arquiteturas de processamento otimizadas para cargas de trabalho específicas, criando uma infraestrutura de IA mais eficiente e versátil.
As implicações desses desenvolvimentos vão muito além das melhorias técnicas. Eles sugerem um futuro onde a implantação de IA se torna mais versátil e ambientalmente consciente, mantendo o desempenho. À medida que avançamos em direção a 2025, essas mudanças provavelmente acelerarão a integração da IA em aplicações cotidianas, criando novas oportunidades de inovação e eficiência em todos os setores.
O ano passado certamente foi de mudanças significativas, evolução e surpresas na tecnologia. É razoável acreditar que o ano que vem trará mais do mesmo. Afinal, o potencial total da IA generativa ainda não foi explorado, o que significa que é provável que surjam casos de uso adicionais e disruptivos para essa tecnologia empolgante.
Se as organizações ainda não estão experimentando IA generativa, elas deveriam estar. O uso de serviços certamente fornece um bom ponto de partida para casos de uso básicos, como bots de bate-papo e mecanismos de recomendação, mas o potencial da IA generativa vai muito além de conversas e geração de novos vídeos de gatos.
Espere ver mais mudanças e novas maneiras de aproveitar a IA continuarem surgindo à medida que a IA continua a remodelar os próprios fundamentos da tecnologia.