Nossa compreensão sobre tecnologia e seu funcionamento está passando por uma mudança profunda em várias áreas. Para entender como as organizações estão enfrentando essas transformações, a F5 fez uma parceria com a SlashData, empresa líder em pesquisa de mercado focada em tecnologia, e pesquisou centenas de líderes e profissionais de TI, segurança e desenvolvimento de software em diversos setores e regiões do mundo.
Os participantes incluíram usuários dos projetos de código aberto NGINX, NGINX Open Source e dos produtos comerciais F5 NGINX. O que aprendemos confirmou a urgência das organizações em implementar mudanças imediatas em conteinerização, segurança, plataformas para desenvolvedores e IA. A seguir, destacamos as principais conclusões da Pesquisa Anual NGINX 2025.
O F5 NGINX tornou-se a principal escolha como porta de entrada para infraestrutura de IA, com os maiores fornecedores de hardware e software de IA adotando-o como proxy reverso principal ou controlador de entrega recomendado para aplicações de IA. Os resultados da pesquisa mostraram forte crescimento entre os usuários do NGINX — e a comunidade mais ampla de entrega de aplicações — na direção de um futuro orientado por IA.
Uso do agente de IA: Quando questionamos sobre o envolvimento com tarefas de IA autônoma (veja a Figura 1), os respondentes indicaram que “Configurar NGINX” lidera a adoção atual com 25%, seguido de perto por “otimização de tráfego de rede e balanceamento de carga” com 24%. “Implantação e escalonamento de infraestrutura” junto com “correção de vulnerabilidades de segurança” já são utilizadas por 23% dos respondentes.
Engajamento combinado: Ao juntarmos as respostas de quem já usa e está testando IA agêntica, “análise de logs e solução proativa de problemas” lidera com 48%. “Configuração do NGINX” e “implantação e escalonamento da infraestrutura” ficaram empatados com 46% cada, seguidos por “otimização de tráfego de rede” com 45%.
Maior interesse futuro: “Detecção e correção de desvios” despertou o maior interesse futuro, com 33%, seguido por “monitoramento de implantações NGINX”, com 32%, e “alerta e triagem de incidentes”, com 31%.
Hardware especializado: 25% dos entrevistados executam cargas de trabalho em GPUs, TPUs ou FPGAs—algo notável para uma infraestrutura tradicionalmente focada em computação geral (veja a Figura 2). Esperamos que isso aumente devido a vários fatores-chave, incluindo avanços em modelos menores de IA, maior facilidade para rodar esses modelos em infraestruturas nativas da nuvem como Docker e grandes provedores, além do descarregamento de processos de entrega de aplicações (como criptografia e descarregamento de SSL para NPUs e FPGAs, inferência de IA em GPUs e TPUs, etc.)
Principais barreiras: Os participantes da pesquisa indicaram preocupações com segurança (26%) e falta de confiança na precisão (24%) como os principais obstáculos para integrar IA. Complexidade na integração, restrições regulatórias e compreensão limitada das capacidades dos agentes apresentaram 17% cada.
A revolução cloud native continua avançando forte, mais de uma década após seu início com contêineres e Kubernetes. Nos principais pilares do cloud native, mesmo com adoção quase universal, a penetração completa ainda demora a acontecer (veja a Figura 3).
Nossa pesquisa revelou principalmente:
Na última década, muitas organizações de tecnologia passaram a usar APIs como principal mecanismo de conexão para operações internas e externas. Em arquiteturas nativas da nuvem, adotamos o API-first como um princípio central de design. Por isso, 86% dos entrevistados utilizam gateways de API para gerenciar suas infraestruturas de API (veja a Figura 4).
Apesar da adoção ampla de APIs e da forte presença de gateways de API, a maioria das organizações ainda mantém práticas imaturas de segurança de API (veja a Figura 5). Embora 86% das organizações usem APIs, apenas 34% aplicam segurança nelas. Isso representa uma exposição significativa na infraestrutura atual das aplicações.
Menos da metade dos entrevistados foca na análise de tráfego de API (43%) e na observabilidade (38%), outros dois elementos fundamentais da segurança de API. Essa lacuna provavelmente reflete dificuldades em observar e gerenciar APIs de forma ampla. De fato, 23% dos entrevistados adotam abordagens diferentes para gerenciamento de API entre as equipes, uma fragmentação causada pelas dificuldades em alinhar toda a organização ao tradicional “caminho dourado” do gerenciamento de API.
A engenharia de plataforma deixou de ser apenas uma palavra da moda e entrou no uso comum. Na verdade, 65% dos respondentes já começaram a implementar capacidades e responsabilidades de engenharia de plataforma (veja a Figura 6). Esse dado inclui desde grandes organizações com equipes dedicadas à plataforma até membros isolados atuando como líderes de engenharia de plataforma. Cerca de 27% mantêm pequenas equipes dedicadas de engenharia de plataforma, e 21% das organizações têm profissionais com essa função dentro das equipes de desenvolvimento e operações. Outros 13% contam com grandes equipes dedicadas de engenharia de plataforma. Fica claro que a proposta de valor da engenharia de plataforma se espalhou e se consolidou.
Dito isso, independentemente do tamanho da equipe, as respostas da pesquisa sobre os desafios da plataforma mostram dificuldades nos estágios iniciais. Apenas 20% dos entrevistados afirmaram não ter enfrentado desafios significativos. Os demais relataram que diversos desafios de engenharia de plataforma impactam diretamente suas organizações, incluindo questões de segurança e conformidade (18%), manutenção de documentação (16%), atualização tecnológica (16%) e limitações de recursos (14%).
A pesquisa revelou diferenças claras entre equipes maiores e menores quanto às prioridades na entrega de serviços e na proposta de valor. Como esperado, equipes maiores focam em áreas mais sofisticadas, enquanto equipes menores mantêm o foco tradicional do DevOps. Grandes equipes dedicadas de engenharia de plataforma tendem a oferecer serviços sofisticados, como Banco de Dados como Serviço (54%), observabilidade (52%), gerenciamento de API (51%), configuração e gerenciamento de firewalls (54%) e ferramentas para pipeline de CI/CD (50%).
As empresas estão implementando tecnologia mais rápido do que conseguem gerenciar. A pesquisa revela que as organizações querem acelerar a adoção de contêineres, APIs e engenharia de plataforma, mas ainda não estão preparadas para proteger e administrar o que desenvolvem. A maior falha está na segurança das APIs. Quase todas as organizações operam APIs, mas dois terços delas carecem da proteção essencial. Esse não é um risco futuro; é uma vulnerabilidade ativa que já está em produção.
Enquanto isso, avanços concretos acontecem em áreas específicas. Agentes de IA estão prestes a assumir tarefas reais de infraestrutura em grande escala, além das simples demonstrações. GPUs e processadores especializados já se consolidam como padrão. Times de engenharia de plataforma existem na maioria das organizações, mesmo que ainda estejam definindo seu papel.
O que importa agora é manter disciplina na execução. Nossas recomendações? Não adicione novos recursos sem antes administrar bem os que já possui. Padronize suas práticas de segurança e gerenciamento de APIs. Garanta a observabilidade necessária para entender seus sistemas. Atribua às equipes da plataforma responsabilidades claras e ofereça os recursos para que entreguem os resultados.
Já temos a tecnologia para criar uma infraestrutura moderna e eficiente. Agora é o momento de realizar as tarefas, embora pouco atraentes, que garantem segurança e sustentabilidade.
Para saber mais sobre os produtos F5 NGINX, acesse nossa página.