COMUNICADO DE IMPRENSA

A F5 expande os recursos de desempenho, multilocação e segurança para um cenário de IA em rápida evolução com a NVIDIA

Publicado em 11 de junho de 2025
CONTATOS

Dan Sorensen
F5
(650) 228-4842
d.sorensen@f5.com

Holly Lancaster
Nós. Comunicações
(415) 547-7054
hluka@we-worldwide.com

A validação do Sesterce destaca a inovação colaborativa entre a F5 e a NVIDIA para ajudar os clientes a adotar o valor da entrega de application com foco em IA

PARIS  F5 (NASDAQ: A FFIV, líder global em fornecimento e proteção de todos os aplicativos e APIs, anunciou hoje novos recursos para o F5 BIG-IP Next para Kubernetes acelerados com DPUs NVIDIA BlueField-3 e a estrutura de software NVIDIA DOCA , ressaltados pela implantação de validação do cliente Sesterce. A Sesterce é uma operadora europeia líder, especializada em infraestruturas de última geração e IA soberana, projetada para atender às necessidades de computação acelerada e inteligência artificial.

Ampliando a plataforma de entrega e segurança de application F5 , o BIG-IP Next para Kubernetes executado nativamente em DPUs NVIDIA BlueField-3 oferece gerenciamento de tráfego e segurança de alto desempenho para infraestrutura de IA em larga escala, desbloqueando maior eficiência, controle e desempenho para applications de IA. Juntamente com as vantagens de desempenho atraentes anunciadas junto com a disponibilidade geral no início deste ano, a Sesterce concluiu com sucesso a validação da solução F5 e NVIDIA em uma série de recursos importantes, incluindo as seguintes áreas:

- Desempenho aprimorado, multilocação e segurança para atender às expectativas de nível de nuvem, mostrando inicialmente uma melhoria de 20% na utilização da GPU.

- Integração com NVIDIA Dynamo e KV Cache Manager para reduzir a latência do raciocínio de sistemas de inferência de modelos de linguagem grande (LLM) e otimização de GPUs e recursos de memória.

- Roteamento LLM inteligente em DPUs BlueField, funcionando de forma eficaz com microsserviços NVIDIA NIM para cargas de trabalho que exigem vários modelos, oferecendo aos clientes o melhor de todos os modelos disponíveis.

- Escalonamento e proteção do Model Context Protocol (MCP), incluindo recursos de proxy reverso e proteções para LLMs mais escaláveis e seguros, permitindo que os clientes utilizem de forma rápida e segura o poder dos servidores MCP.

- Programabilidade de dados poderosa com recursos robustos do F5 iRules , permitindo personalização rápida para dar suporte a applications de IA e requisitos de segurança em evolução.

“A integração entre o F5 e a NVIDIA foi atraente antes mesmo de realizarmos qualquer teste”, disse Youssef El Manssouri, CEO e cofundador da Sesterce. “Nossos resultados ressaltam os benefícios do balanceamento de carga dinâmico do F5 com entrada e saída de alto volume do Kubernetes em ambientes de IA. Essa abordagem nos permite distribuir o tráfego de forma mais eficiente e otimizar o uso de nossas GPUs, ao mesmo tempo em que nos permite levar valor adicional e exclusivo aos nossos clientes. Estamos satisfeitos em ver o suporte da F5 para um número crescente de casos de uso da NVIDIA, incluindo multilocação aprimorada, e estamos ansiosos por inovação adicional entre as empresas no suporte à infraestrutura de IA de próxima geração.”

Os destaques dos novos recursos da solução incluem:

  • Roteamento LLM e balanceamento de carga dinâmico com BIG-IP Next para Kubernetes

Com essa solução colaborativa, tarefas simples relacionadas à IA podem ser encaminhadas para LLMs leves e menos dispendiosos para dar suporte à IA generativa, reservando modelos avançados para consultas complexas. Esse nível de inteligência personalizável também permite que funções de roteamento aproveitem LLMs específicos de domínio, melhorando a qualidade da saída e aprimorando significativamente as experiências do cliente. O gerenciamento avançado de tráfego do F5 garante que as consultas sejam enviadas ao LLM mais adequado, reduzindo a latência e melhorando o tempo até o primeiro token.

“As empresas estão cada vez mais implantando vários LLMs para potencializar experiências avançadas de IA, mas o roteamento e a classificação do tráfego LLM podem exigir muito da computação, prejudicando o desempenho e a experiência do usuário”, disse Kunal Anand, diretor de inovação da F5. “Ao programar a lógica de roteamento diretamente nas DPUs NVIDIA BlueField-3, o F5 BIG-IP Next para Kubernetes é a abordagem mais eficiente para entregar e proteger o tráfego LLM. Isto é só o começo. Nossa plataforma abre novas possibilidades para infraestrutura de IA, e estamos animados para aprofundar a coinovação com a NVIDIA à medida que a IA empresarial continua a crescer.”

  • Otimizando GPUs para inferência de IA distribuída em escala com integração NVIDIA Dynamo e KV Cache

No início deste ano, o NVIDIA Dynamo foi lançado , fornecendo uma estrutura suplementar para implantação de IA generativa e modelos de raciocínio em ambientes distribuídos em larga escala. O NVIDIA Dynamo simplifica a complexidade da execução de inferência de IA em ambientes distribuídos orquestrando tarefas como agendamento, roteamento e gerenciamento de memória para garantir uma operação perfeita em cargas de trabalho dinâmicas. Descarregar operações específicas de CPUs para DPUs BlueField é um dos principais benefícios da solução combinada da F5 e da NVIDIA. Com o F5, o recurso Dynamo KV Cache Manager pode rotear solicitações de forma inteligente com base na capacidade, usando o cache de chave-valor (KV) para acelerar casos de uso de IA generativa, acelerando processos com base na retenção de informações de operações anteriores (em vez de exigir recomputação intensiva de recursos). Do ponto de vista da infraestrutura, as organizações que armazenam e reutilizam dados de cache KV podem fazer isso por uma fração do custo de uso da memória GPU para essa finalidade.

"O BIG-IP Next para Kubernetes acelerado com DPUs NVIDIA BlueField-3 oferece às empresas e provedores de serviços um único ponto de controle para roteamento eficiente do tráfego para fábricas de IA para otimizar a eficiência da GPU e acelerar o tráfego de IA para ingestão de dados, treinamento de modelos, inferência, RAG e IA de agente", disse Ash Bhalgat, diretor sênior de soluções de segurança e redes de IA, ecossistema e marketing da NVIDIA. “Além disso, o suporte da F5 para multilocação e a programabilidade aprimorada com iRules continuam a fornecer uma plataforma adequada para integração contínua e adições de recursos, como suporte para NVIDIA Dynamo Distributed KV Cache Manager.”

  • Proteção aprimorada para servidores MCP com F5 e NVIDIA

O Model Context Protocol (MCP) é um protocolo aberto desenvolvido pela Anthropic que padroniza a forma como as applications fornecem contexto aos LLMs. A implantação da solução combinada F5 e NVIDIA em servidores MCP permite que a tecnologia F5 atue como um proxy reverso, reforçando os recursos de segurança das soluções MCP e dos LLMs que elas suportam. Além disso, a programabilidade total de dados habilitada pelo F5 iRules promove rápida adaptação e resiliência para requisitos de protocolo de IA em rápida evolução, bem como proteção adicional contra riscos de segurança cibernética.

“As organizações que implementam IA de agência estão cada vez mais contando com implantações de MCP para melhorar a segurança e o desempenho dos LLMs”, disse Greg Schoeny, vice-presidente sênior, provedor de serviços globais da World Wide Technology. “Ao levar gerenciamento avançado de tráfego e segurança para amplos ambientes Kubernetes, a F5 e a NVIDIA estão fornecendo conjuntos de recursos de IA integrados, juntamente com capacidades de programação e automação, que não estamos vendo em nenhum outro lugar do setor atualmente.”

O F5 BIG-IP Next para Kubernetes implantado em DPUs NVIDIA BlueField-3 já está disponível para o público em geral. Para obter detalhes adicionais sobre tecnologia e benefícios de implantação, acesse www.f5.com e visite as empresas no NVIDIA GTC Paris, parte do evento VivaTech 2025 desta semana. Mais detalhes também podem ser encontrados em um blog complementar do F5 .

Sobre Sesterce

Fundada em 2018, a Sesterce é uma operadora europeia líder especializada em computação de alto desempenho e infraestrutura de inteligência artificial . Com controle total sobre a cadeia de valor, a empresa entrega soluções flexíveis, soberanas e sustentáveis, adaptadas às necessidades de startups, grandes empresas e instituições acadêmicas. A Sesterce pretende se tornar líder europeia em infraestrutura de IA, capacitando inovadores a crescer e, ao mesmo tempo, mantendo padrões éticos e ambientais.

Neste espírito, a Sesterce também oferece uma camada de serviço “nativa de IA” sobre sua infraestrutura: ela fornece preparação de dados de alto nível que ingere e transforma fluxos heterogêneos em tempo real, fornece suporte dedicado para Very Large Language Models (VLLMs) para organizações que desenvolvem ou implantam modelos de grande escala e fornece soluções modulares de inteligência empresarial projetadas tanto para startups nativas de IA quanto para empresas estabelecidas. Além disso, a Sesterce garante privacidade e controle de ponta a ponta com ambientes privados de IA e inferência totalmente compatíveis com os padrões europeus de soberania e confidencialidade.

Sobre a F5

F5, Inc.(NASDAQ: A FFIV é líder global na entrega e proteção de todos os aplicativos. Com três décadas de experiência, a F5 construiu a plataforma líder do setor — a F5 Application Delivery and Security Platform (ADSP) — para entregar e proteger todos os aplicativos e APIs, em qualquer lugar: no local, na nuvem, na borda e em ambientes híbridos e multicloud. A F5 está comprometida em inovar e fazer parcerias com as maiores e mais avançadas organizações do mundo para oferecer experiências digitais rápidas, disponíveis e seguras. Juntos, ajudamos uns aos outros a prosperar e a dar vida a um mundo digital melhor.

Para mais informações visite f5.com
Explore a pesquisa de ameaças do F5 Labs em f5.com/labs
Siga para saber mais sobre a F5, nossos parceiros e tecnologias: Blog | LinkedIn | X | YouTube | Instagram | Facebook

F5, BIG-IP, BIG-IP Next e iRules são marcas comerciais, marcas de serviço ou nomes comerciais da F5, Inc. nos EUA e em outros países. Todos os outros nomes de produtos e empresas aqui contidos podem ser marcas registradas de seus respectivos proprietários.

# # #

Este comunicado à imprensa pode conter declarações prospectivas relacionadas a eventos futuros ou desempenho financeiro futuro que envolvem riscos e incertezas. Tais declarações podem ser identificadas por terminologia como "pode", "irá", "deve", "espera", "planeja", "antecipa", "acredita", "estima", "prevê", "potencial" ou "continua", ou a negativa de tais termos ou termos comparáveis. Essas declarações são apenas previsões e os resultados reais podem diferir materialmente daqueles antecipados nessas declarações com base em uma série de fatores, incluindo aqueles identificados nos registros da empresa na SEC.