Qu'est-ce qu'une unité de traitement de données (DPU) ?

Une unité de traitement de données (DPU) est un processeur spécialisé conçu pour décharger et accélérer les tâches centrées sur les données, libérant ainsi les unités centrales de traitement (CPU) pour traiter les charges de travail spécifiques aux applications. Conçus pour traiter les réseaux à haut débit, les demandes de stockage et le traitement de sécurité, les DPU sont adaptés aux centres de données modernes à haute densité et aux exigences de calcul haute performance (HPC).

Comprendre en profondeur les DPU

Les DPU et leurs homologues, les unités de traitement d'infrastructure (IPU), répondent à une exigence de déchargement des tâches courantes et gourmandes en débit des CPU. La réduction des tâches de chiffrement, des opérations d'E/S de stockage et du traitement des paquets réseau à large bande passante permet aux processeurs de cibler les tâches application à densité plus élevée que les applications basées sur des conteneurs, le partitionnement cloud ou hyperviseur et les tâches intensives en calcul intelligence artificielle (IA) nécessitent.

Plusieurs fonctions clés incluent :

  • Réseautage : S'appuyant sur les fonctionnalités des cartes d'interface réseau intelligentes (SmartNIC), les DPU peuvent traiter des flux de paquets volumineux à des vitesses proches de celles de la ligne, offrant un déchargement de superposition de réseau, y compris VXLAN, et offrent des services de sécurité et de contrôleur de distribution application tels que la prise en charge du pare-feu, le déchargement TLS, l'équilibrage de charge et le routage du trafic. De plus, les DPU peuvent fournir des sources d'entropie pour les générateurs de nombres pseudo-aléatoires cryptographiquement sécurisés (CSPRNG).
  • Stockage: En accélérant le transfert de données entre les hôtes et le stockage, les DPU prennent en charge les protocoles de stockage avancés tels que les protocoles NVMe (Non-Volatile Memory Express) sur Fabrics (oF), offrant des vitesses accrues requises pour le stockage à semi-conducteurs et l'infrastructure hyperconvergée (HCI). Les DPU fournissent également une prise en charge du cryptage/décryptage, de la compression et du traitement de la déduplication, réduisant ainsi davantage les charges sur les processeurs.
  • Virtualisation : Le déchargement des tâches de mise en réseau basées sur l'hyperviseur et les conteneurs améliore la capacité à partitionner et à louer l'infrastructure HCI pour des densités de charge de travail plus élevées, offrant ainsi un retour sur investissement accru sur l'infrastructure.

Avantages de l'utilisation des DPU

L'optimisation des performances du processeur pour les tâches spécifiques aux applications dans les environnements HCI et HPC devient de plus en plus importante, car la densité de calcul et la consommation d'énergie deviennent de nouvelles mesures des avantages en termes de coûts d'infrastructure. Les progrès en matière de vitesse de réseau et de réduction de la latence, de performances de stockage et la nécessité de fournir des ressources de calcul à davantage d’utilisateurs mettent encore plus à rude épreuve les tâches non spécifiques aux applications requises des processeurs. Les mesures de succès actuellement acceptées, adoptées par l’industrie HPC, sont définies par la densité et les performances du processeur.

Les ratios des points de données de puissance de traitement incluent, sans s'y limiter :

  • Nombre de cœurs de processeur (par rack, nœud ou total disponible pour les utilisateurs)
  • Opérations en virgule flottante par seconde (FLOPS)1
  • Consommation électrique (mesurée en kilowatts moyens et de pointe)
  • Mesure de l'espace physique (mesurée en pieds carrés ou en mètres carrés)

Utilisées depuis longtemps par les HPC pour mesurer les performances des supercalculateurs au lancement et au fil du temps, ces mesures sont de plus en plus appliquées aux centres de données traditionnels à mesure que la technologie entre les deux industries continue de converger.

Les DPU offrent un moyen d'augmenter la disponibilité du processeur pour les pipelines gourmands en application et en calcul, ce qui peut créer un goulot d'étranglement si le processeur doit gérer des tâches non informatiques de niveau inférieur. Ces tâches sont aggravées lorsque les densités et les tâches application augmentent, les DPU offrent donc un moyen d'atténuer ce goulot d'étranglement. En ajoutant des DPU à l’infrastructure du centre de données, les processeurs sont libérés pour offrir de meilleures performances par cœur. Alternativement, les ressources de calcul peuvent être partitionnées et louées pour permettre à davantage d’utilisateurs d’accéder aux ressources système.

Comment fonctionne F5 avec les DPU ?

Fort de son succès en utilisant les technologies SmartNIC, ASIC et FPGA, F5 tire parti du traitement et de l'emplacement du trafic en ligne d'un DPU au sein de l'infrastructure de calcul pour augmenter et améliorer la capacité de charge de travail, les performances et la sécurité des infrastructures HCI/HPC.

Tirant parti des DPU NVIDIA Bluefield-3, F5 offre de nombreux avantages aux fournisseurs de services et aux grandes entreprises qui cherchent à développer des ressources de calcul à grande échelle tout en maximisant les ressources de calcul. Il s'agit notamment, sans s'y limiter :

  • Intégration simplifiée : F5 combine la mise en réseau, la sécurité, la gestion du trafic et l'équilibrage de charge dans une suite consolidée de services axés sur les intégrations DPU. Il offre une vue intégrée de ces services sur l'ensemble de l'infrastructure HCI/HPC, ainsi que l'observabilité et le contrôle granulaire nécessaires pour optimiser les charges de travail gourmandes en calcul.
  • Sécurité renforcée : F5 prend en charge les fonctionnalités de sécurité critiques, notamment le pare-feu, l'atténuation des attaques par déni de service distribué (DDoS), la protection des API, le cryptage et la gestion des certificats en déchargeant ces fonctions sur le DPU.
  • Performances améliorées : F5 accélère la mise en réseau et la sécurité, ce qui est essentiel pour répondre aux exigences requises dans une infrastructure haute densité pour fournir des applications à l'échelle du cloud.
  • Prise en charge multi-locataire : F5 permet une architecture multi-locataire évolutive, permettant aux fournisseurs de services d'héberger en toute sécurité une multitude de locataires sur la même infrastructure tout en gardant leurs charges de travail et leurs données séparées et sécurisées.

Pour plus d'informations sur les solutions intégrées DPU et F5, veuillez cliquer sur les ressources à droite.


1Les mesures standard pour les mesures HPC à base scientifique consistaient traditionnellement en une précision à virgule flottante simple ou double précision (FP32 et FP64). Les tendances actuelles en matière d’IA mesurent désormais les performances à la moitié ou moins (FP16). L'utilisation d'un adressage mémoire de plus petite précision (types de données à virgule flottante et entière) permet une formation plus rapide et des empreintes mémoire plus petites des modèles de langage.