Une unité de traitement de données (DPU) est un processeur spécialisé conçu pour décharger et accélérer les tâches centrées sur les données, libérant ainsi les unités centrales de traitement (CPU) pour traiter les charges de travail spécifiques aux applications. Conçus pour traiter les réseaux à haut débit, les demandes de stockage et le traitement de sécurité, les DPU sont adaptés aux centres de données modernes à haute densité et aux exigences de calcul haute performance (HPC).
Les DPU et leurs homologues, les unités de traitement d'infrastructure (IPU), répondent à une exigence de déchargement des tâches courantes et gourmandes en débit des CPU. La réduction des tâches de chiffrement, des opérations d'E/S de stockage et du traitement des paquets réseau à large bande passante permet aux processeurs de cibler les tâches application à densité plus élevée que les applications basées sur des conteneurs, le partitionnement cloud ou hyperviseur et les tâches intensives en calcul intelligence artificielle (IA) nécessitent.
Plusieurs fonctions clés incluent :
L'optimisation des performances CPU pour des tâches spécifiques aux applications dans des environnements HCI et HPC prend de l'importance alors que la densité de calcul et la consommation énergétique deviennent des critères clés pour les gains de coûts d'infrastructure. Les progrès des vitesses réseau, la réduction de la latence, l'amélioration des performances de stockage et la nécessité d'offrir des ressources de calcul à un plus grand nombre d’utilisateurs sollicitent davantage les tâches CPU hors applications spécifiques. Nous évaluons aujourd'hui le succès, selon les standards de l’industrie HPC, par la densité et la performance CPU.
Les ratios des points de données de puissance de traitement incluent, sans s'y limiter :
Utilisées depuis longtemps par les HPC pour mesurer les performances des supercalculateurs au lancement et au fil du temps, ces mesures sont de plus en plus appliquées aux centres de données traditionnels à mesure que la technologie entre les deux industries continue de converger.
Les DPU augmentent la disponibilité du processeur pour les pipelines intensifs en calculs et applications, qui se bloquent si le processeur doit gérer des tâches non liées au calcul de bas niveau. Ces tâches s’accumulent lorsque les densités et charges applicatives augmentent ; les DPU offrent alors une solution pour éviter ce goulot d’étranglement. En intégrant des DPU dans l’infrastructure des centres de données, vous libérez les processeurs pour améliorer les performances par cœur. Vous pouvez aussi partitionner et attribuer les ressources de calcul pour permettre à plus d’utilisateurs d’accéder aux ressources système.
Fort de son succès en utilisant les technologies SmartNIC, ASIC et FPGA, F5 tire parti du traitement et de l'emplacement du trafic en ligne d'un DPU au sein de l'infrastructure de calcul pour augmenter et améliorer la capacité de charge de travail, les performances et la sécurité des infrastructures HCI/HPC.
En exploitant les DPU NVIDIA Bluefield-3, F5 apporte plusieurs bénéfices aux fournisseurs de services et aux grandes entreprises qui souhaitent déployer des ressources de calcul à grande échelle tout en optimisant leur utilisation. Parmi ces bénéfices, on compte notamment :
Pour en savoir plus sur les solutions intégrées DPU et F5, consultez les ressources situées à droite.
1Les mesures standard pour les mesures HPC à base scientifique consistaient traditionnellement en une précision à virgule flottante simple ou double précision (FP32 et FP64). Les tendances actuelles en matière d’IA mesurent désormais les performances à la moitié ou moins (FP16). L'utilisation d'un adressage mémoire de plus petite précision (types de données à virgule flottante et entière) permet une formation plus rapide et des empreintes mémoire plus petites des modèles de langage.