Qu'est-ce qu'une unité de traitement de données (DPU) ?

Une unité de traitement de données (DPU) est un processeur spécialisé conçu pour décharger et accélérer les tâches centrées sur les données, libérant ainsi les unités centrales de traitement (CPU) pour traiter les charges de travail spécifiques aux applications. Conçus pour traiter les réseaux à haut débit, les demandes de stockage et le traitement de sécurité, les DPU sont adaptés aux centres de données modernes à haute densité et aux exigences de calcul haute performance (HPC).

Comprendre en profondeur les DPU

Les DPU et leurs homologues, les unités de traitement d'infrastructure (IPU), répondent à une exigence de déchargement des tâches courantes et gourmandes en débit des CPU. La réduction des tâches de chiffrement, des opérations d'E/S de stockage et du traitement des paquets réseau à large bande passante permet aux processeurs de cibler les tâches application à densité plus élevée que les applications basées sur des conteneurs, le partitionnement cloud ou hyperviseur et les tâches intensives en calcul intelligence artificielle (IA) nécessitent.

Plusieurs fonctions clés incluent :

  • Réseautage : S’appuyant sur les fonctionnalités présentes dans les cartes d’interface réseau intelligentes (SmartNIC), les DPU traitent d’importants flux de paquets à des vitesses proches du débit optimal, déchargeant notamment les superpositions réseau comme VXLAN, tout en fournissant des services de sécurité et de contrôleur de livraison applicative tels que la prise en charge des pare-feu, le déchargement TLS, l’équilibrage de charge et le routage du trafic. Par ailleurs, les DPU fournissent des sources d’entropie pour alimenter les générateurs de nombres pseudo-aléatoires cryptographiquement sécurisés (CSPRNG).
  • Stockage: En accélérant le transfert de données entre les hôtes et le stockage, les DPU prennent en charge les protocoles de stockage avancés tels que les protocoles NVMe (Non-Volatile Memory Express) sur Fabrics (oF), offrant des vitesses accrues requises pour le stockage à semi-conducteurs et l'infrastructure hyperconvergée (HCI). Les DPU fournissent également une prise en charge du cryptage/décryptage, de la compression et du traitement de la déduplication, réduisant ainsi davantage les charges sur les processeurs.
  • Virtualisation : Le déchargement des tâches de mise en réseau basées sur l'hyperviseur et les conteneurs améliore la capacité à partitionner et à louer l'infrastructure HCI pour des densités de charge de travail plus élevées, offrant ainsi un retour sur investissement accru sur l'infrastructure.

Avantages de l'utilisation des DPU

L'optimisation des performances CPU pour des tâches spécifiques aux applications dans des environnements HCI et HPC prend de l'importance alors que la densité de calcul et la consommation énergétique deviennent des critères clés pour les gains de coûts d'infrastructure. Les progrès des vitesses réseau, la réduction de la latence, l'amélioration des performances de stockage et la nécessité d'offrir des ressources de calcul à un plus grand nombre d’utilisateurs sollicitent davantage les tâches CPU hors applications spécifiques. Nous évaluons aujourd'hui le succès, selon les standards de l’industrie HPC, par la densité et la performance CPU.

Les ratios des points de données de puissance de traitement incluent, sans s'y limiter :

  • Nombre de cœurs de processeur (par rack, nœud ou total disponible pour les utilisateurs)
  • Opérations en virgule flottante par seconde (FLOPS)1
  • Consommation électrique (mesurée en kilowatts moyens et de pointe)
  • Mesure de l'espace physique (mesurée en pieds carrés ou en mètres carrés)

Utilisées depuis longtemps par les HPC pour mesurer les performances des supercalculateurs au lancement et au fil du temps, ces mesures sont de plus en plus appliquées aux centres de données traditionnels à mesure que la technologie entre les deux industries continue de converger.

Les DPU augmentent la disponibilité du processeur pour les pipelines intensifs en calculs et applications, qui se bloquent si le processeur doit gérer des tâches non liées au calcul de bas niveau. Ces tâches s’accumulent lorsque les densités et charges applicatives augmentent ; les DPU offrent alors une solution pour éviter ce goulot d’étranglement. En intégrant des DPU dans l’infrastructure des centres de données, vous libérez les processeurs pour améliorer les performances par cœur. Vous pouvez aussi partitionner et attribuer les ressources de calcul pour permettre à plus d’utilisateurs d’accéder aux ressources système.

Comment fonctionne F5 avec les DPU ?

Fort de son succès en utilisant les technologies SmartNIC, ASIC et FPGA, F5 tire parti du traitement et de l'emplacement du trafic en ligne d'un DPU au sein de l'infrastructure de calcul pour augmenter et améliorer la capacité de charge de travail, les performances et la sécurité des infrastructures HCI/HPC.

En exploitant les DPU NVIDIA Bluefield-3, F5 apporte plusieurs bénéfices aux fournisseurs de services et aux grandes entreprises qui souhaitent déployer des ressources de calcul à grande échelle tout en optimisant leur utilisation. Parmi ces bénéfices, on compte notamment :

  • Intégration simplifiée : F5 combine la mise en réseau, la sécurité, la gestion du trafic et l'équilibrage de charge dans une suite consolidée de services axés sur les intégrations DPU. Il offre une vue intégrée de ces services sur l'ensemble de l'infrastructure HCI/HPC, ainsi que l'observabilité et le contrôle granulaire nécessaires pour optimiser les charges de travail gourmandes en calcul.
  • Sécurité renforcée : F5 prend en charge les fonctionnalités de sécurité critiques, notamment le pare-feu, l'atténuation des attaques par déni de service distribué (DDoS), la protection des API, le cryptage et la gestion des certificats en déchargeant ces fonctions sur le DPU.
  • Performances améliorées : F5 accélère la mise en réseau et la sécurité, ce qui est essentiel pour répondre aux exigences requises dans une infrastructure haute densité pour fournir des applications à l'échelle du cloud.
  • Prise en charge multi-locataire : F5 permet une architecture multi-locataire évolutive, permettant aux fournisseurs de services d'héberger en toute sécurité une multitude de locataires sur la même infrastructure tout en gardant leurs charges de travail et leurs données séparées et sécurisées.

Pour en savoir plus sur les solutions intégrées DPU et F5, consultez les ressources situées à droite.


1Les mesures standard pour les mesures HPC à base scientifique consistaient traditionnellement en une précision à virgule flottante simple ou double précision (FP32 et FP64). Les tendances actuelles en matière d’IA mesurent désormais les performances à la moitié ou moins (FP16). L'utilisation d'un adressage mémoire de plus petite précision (types de données à virgule flottante et entière) permet une formation plus rapide et des empreintes mémoire plus petites des modèles de langage.