Une unité de traitement de données (DPU) est un processeur spécialisé conçu pour décharger et accélérer les tâches centrées sur les données, libérant ainsi les unités centrales de traitement (CPU) pour traiter les charges de travail spécifiques aux applications. Conçus pour traiter les réseaux à haut débit, les demandes de stockage et le traitement de sécurité, les DPU sont adaptés aux centres de données modernes à haute densité et aux exigences de calcul haute performance (HPC).
Les DPU et leurs homologues, les unités de traitement d'infrastructure (IPU), répondent à une exigence de déchargement des tâches courantes et gourmandes en débit des CPU. La réduction des tâches de chiffrement, des opérations d'E/S de stockage et du traitement des paquets réseau à large bande passante permet aux processeurs de cibler les tâches application à densité plus élevée que les applications basées sur des conteneurs, le partitionnement cloud ou hyperviseur et les tâches intensives en calcul intelligence artificielle (IA) nécessitent.
Plusieurs fonctions clés incluent :
L'optimisation des performances du processeur pour les tâches spécifiques aux applications dans les environnements HCI et HPC devient de plus en plus importante, car la densité de calcul et la consommation d'énergie deviennent de nouvelles mesures des avantages en termes de coûts d'infrastructure. Les progrès en matière de vitesse de réseau et de réduction de la latence, de performances de stockage et la nécessité de fournir des ressources de calcul à davantage d’utilisateurs mettent encore plus à rude épreuve les tâches non spécifiques aux applications requises des processeurs. Les mesures de succès actuellement acceptées, adoptées par l’industrie HPC, sont définies par la densité et les performances du processeur.
Les ratios des points de données de puissance de traitement incluent, sans s'y limiter :
Utilisées depuis longtemps par les HPC pour mesurer les performances des supercalculateurs au lancement et au fil du temps, ces mesures sont de plus en plus appliquées aux centres de données traditionnels à mesure que la technologie entre les deux industries continue de converger.
Les DPU offrent un moyen d'augmenter la disponibilité du processeur pour les pipelines gourmands en application et en calcul, ce qui peut créer un goulot d'étranglement si le processeur doit gérer des tâches non informatiques de niveau inférieur. Ces tâches sont aggravées lorsque les densités et les tâches application augmentent, les DPU offrent donc un moyen d'atténuer ce goulot d'étranglement. En ajoutant des DPU à l’infrastructure du centre de données, les processeurs sont libérés pour offrir de meilleures performances par cœur. Alternativement, les ressources de calcul peuvent être partitionnées et louées pour permettre à davantage d’utilisateurs d’accéder aux ressources système.
Fort de son succès en utilisant les technologies SmartNIC, ASIC et FPGA, F5 tire parti du traitement et de l'emplacement du trafic en ligne d'un DPU au sein de l'infrastructure de calcul pour augmenter et améliorer la capacité de charge de travail, les performances et la sécurité des infrastructures HCI/HPC.
Tirant parti des DPU NVIDIA Bluefield-3, F5 offre de nombreux avantages aux fournisseurs de services et aux grandes entreprises qui cherchent à développer des ressources de calcul à grande échelle tout en maximisant les ressources de calcul. Il s'agit notamment, sans s'y limiter :
Pour plus d'informations sur les solutions intégrées DPU et F5, veuillez cliquer sur les ressources à droite.
1Les mesures standard pour les mesures HPC à base scientifique consistaient traditionnellement en une précision à virgule flottante simple ou double précision (FP32 et FP64). Les tendances actuelles en matière d’IA mesurent désormais les performances à la moitié ou moins (FP16). L'utilisation d'un adressage mémoire de plus petite précision (types de données à virgule flottante et entière) permet une formation plus rapide et des empreintes mémoire plus petites des modèles de langage.