O que é uma Unidade de Processamento de Dados (DPU)?

Uma unidade de processamento de dados (DPU) é um processador especializado projetado para descarregar e acelerar tarefas centradas em dados, liberando unidades centrais de processamento (CPUs) para processar cargas de trabalho específicas do aplicativo. Projetadas para processar redes de alta velocidade, solicitações de armazenamento e processamento de segurança, as DPUs são adequadas para data centers modernos de alta densidade e demandas de computação de alto desempenho (HPC).

Compreendendo as DPUs em profundidade

DPUs e suas contrapartes, unidades de processamento de infraestrutura (IPUs), atendem à necessidade de descarregar tarefas comuns e de alto desempenho das CPUs. A redução de tarefas de criptografia, operações de E/S de armazenamento e processamento de pacotes de rede de alta largura de banda permite que as CPUs visem tarefas de application de maior densidade exigidas por applications baseados em contêineres, particionamento de nuvem ou hipervisor e tarefas intensivas de computação de inteligência artificial (IA).

Várias funções principais incluem:

  • Rede: Com base nos recursos encontrados em placas de interface de rede inteligentes (SmartNICs), as DPUs podem processar fluxos de pacotes de grande volume em velocidades próximas à taxa de linha, fornecendo descarregamento de sobreposição de rede, incluindo VXLAN, e oferecem serviços de controlador de entrega de application e segurança, como suporte a firewall, descarregamento de TLS, balanceamento de carga e roteamento de tráfego. Além disso, as DPUs podem fornecer fontes de entropia para geradores de números pseudoaleatórios criptograficamente seguros (CSPRNGs).
  • Armazenar: Acelerando a transferência de dados entre hosts e armazenamento, as DPUs oferecem suporte a protocolos de armazenamento avançados, como memória não volátil expressa (NVMe) sobre protocolos de malha (oF), proporcionando maiores velocidades necessárias para armazenamento de estado sólido e infraestrutura hiperconvergente (HCI). As DPUs também fornecem suporte para criptografia/descriptografia, compactação e processamento de desduplicação, reduzindo ainda mais as cargas nas CPUs.
  • Virtualização: A transferência de tarefas de rede baseadas em hipervisor e contêiner melhora a capacidade de particionar e alocar infraestrutura HCI para densidades de carga de trabalho mais altas, proporcionando maior ROI na infraestrutura.

Benefícios do uso de DPUs

Otimizar o desempenho da CPU para tarefas específicas de aplicativos em ambientes HCI e HPC é cada vez mais importante, pois a densidade de computação e o uso de energia se tornam novas métricas para benefícios de custo de infraestrutura. Os avanços nas velocidades de rede e na redução de latência, no desempenho do armazenamento e a necessidade de fornecer recursos de computação a mais usuários sobrecarregam ainda mais as tarefas não específicas de aplicativos exigidas das CPUs. As medidas de sucesso atualmente aceitas, adotadas no setor de HPC, são definidas pela densidade e desempenho da CPU.

As proporções de pontos de dados de poder de processamento incluem, mas não estão limitadas a:

  • Contagem de núcleos de CPU (por rack, nó ou total disponível para usuários)
  • Operações de ponto flutuante por segundo (FLOPS)1
  • Consumo de energia (medido em quilowatts médios e de pico)
  • Medição do espaço físico (medida em pés quadrados ou metros)

Usadas há muito tempo por HPCs para medir o desempenho de supercomputadores no lançamento e ao longo do tempo, essas medições estão sendo cada vez mais aplicadas a data centers tradicionais à medida que a tecnologia entre os dois setores continua a convergir.

As DPUs fornecem uma maneira de aumentar a disponibilidade da CPU para pipelines de application e computação intensivos, o que pode causar gargalos se a CPU for necessária para lidar com tarefas não computacionais de nível inferior. Essas tarefas são agravadas quando as densidades e tarefas de application aumentam, então as DPUs fornecem uma maneira de aliviar esse gargalo. Ao adicionar DPUs à infraestrutura do data center, as CPUs são liberadas para fornecer melhor desempenho por núcleo. Como alternativa, os recursos de computação podem ser particionados e alocados para permitir que mais usuários acessem os recursos do sistema.

Como o F5 funciona com DPUs?

Com base em seu sucesso na utilização de tecnologias SmartNICs, ASIC e FPGA, a F5 aproveita o processamento e a localização do tráfego em linha de uma DPU dentro da infraestrutura de computação para aumentar e melhorar a capacidade de carga de trabalho, o desempenho e a segurança das infraestruturas HCI/HPC.

Aproveitando as DPUs NVIDIA Bluefield-3, a F5 oferece vários benefícios para provedores de serviços e grandes empresas que buscam desenvolver recursos de computação em larga escala e, ao mesmo tempo, maximizar os recursos de computação. Isso inclui, mas não está limitado a:

  • Integração simplificada: O F5 combina rede, segurança, gerenciamento de tráfego e balanceamento de carga em um conjunto consolidado de serviços focados em integrações de DPU. Ele oferece uma visão integrada desses serviços em toda a infraestrutura HCI/HPC, juntamente com a observabilidade e o controle granular necessários para otimizar cargas de trabalho com uso intensivo de computação.
  • Segurança aprimorada: O F5 oferece suporte a recursos de segurança essenciais, incluindo firewall, mitigação de negação de serviço distribuída (DDoS), proteção de API, criptografia e gerenciamento de certificados, transferindo essas funções para a DPU.
  • Desempenho melhorado: O F5 acelera a rede e a segurança, o que é essencial para atender às demandas exigidas na infraestrutura de alta densidade para fornecer applications em escala de nuvem.
  • Suporte multilocação: O F5 permite uma arquitetura multilocatário escalável, permitindo que provedores de serviços hospedem com segurança vários locatários na mesma infraestrutura, mantendo suas cargas de trabalho e dados separados e seguros.

Para mais informações sobre soluções integradas DPU e F5, clique nos recursos à direita.


1As medições padrão para medições de HPC com base científica tradicionalmente consistiam em precisão de ponto flutuante de precisão simples ou dupla (FP32 e FP64). As tendências atuais de IA agora medem o desempenho pela metade ou menos (FP16). O uso de endereçamento de memória de menor precisão (tipos de dados de ponto flutuante e inteiros) permite treinamento mais rápido e menores ocupações de memória de modelos de linguagem.