Eine Datenverarbeitungseinheit (DPU) ist ein spezialisierter Prozessor, der datenzentrierte Aufgaben auslagert und beschleunigt, sodass Zentraleinheiten (CPUs) für die Verarbeitung anwendungsspezifischer Arbeitslasten frei werden. DPUs sind für die Verarbeitung von Hochgeschwindigkeitsnetzwerken, Speicheranforderungen und Sicherheitsverarbeitung konzipiert und eignen sich für moderne Rechenzentren mit hoher Dichte und die Anforderungen des Hochleistungsrechnens (HPC).
DPUs und ihre Gegenstücke, Infrastructure Processing Units (IPUs), erfüllen die Anforderung, CPUs von allgemeinen und durchsatzintensiven Aufgaben zu entlasten. Durch die Reduzierung von Verschlüsselungsaufgaben, Speicher-E/A-Vorgängen und der Verarbeitung von Netzwerkpaketen mit hoher Bandbreite können sich CPUs auf Application mit höherer Dichte konzentrieren, die für containerbasierte Applications, Cloud- oder Hypervisor-Partitionierung und rechenintensive Aufgaben der Künstliche Intelligenz (KI) erforderlich sind.
Zu den wichtigsten Funktionen gehören:
Die Optimierung der CPU-Leistung für anwendungsspezifische Aufgaben in HCI- und HPC-Umgebungen wird immer wichtiger, da Rechendichte und Stromverbrauch zu neuen Maßstäben für Infrastrukturkostenvorteile werden. Fortschritte bei der Netzwerkgeschwindigkeit und Latenzreduzierung, der Speicherleistung und die Notwendigkeit, mehr Benutzern Rechenressourcen zur Verfügung zu stellen, belasten die nicht anwendungsspezifischen Aufgaben, die von den CPUs verlangt werden, noch stärker. Die derzeit akzeptierten Erfolgsmaßstäbe, die aus der HPC-Branche übernommen wurden, werden durch CPU-Dichte und Leistung definiert.
Die Verhältnisse der Datenpunkte zur Verarbeitungsleistung umfassen (sind jedoch nicht beschränkt auf):
Diese Messungen werden von HPCs schon lange verwendet, um die Leistung von Supercomputern beim Start und im Laufe der Zeit zu messen. Mit der fortschreitenden Konvergenz der Technologien beider Branchen werden sie zunehmend auch auf herkömmliche Rechenzentren angewendet.
DPUs bieten eine Möglichkeit, die CPU-Verfügbarkeit für application und rechenintensive Pipelines zu erhöhen, bei denen es zu Engpässen kommen kann, wenn die CPU für die Verarbeitung von Nicht-Rechenaufgaben auf niedrigerer Ebene benötigt wird. Diese Aufgaben werden noch komplexer, wenn Dichte und Application zunehmen. DPUs bieten daher eine Möglichkeit, diesen Engpass zu beseitigen. Durch das Hinzufügen von DPUs zur Rechenzentrumsinfrastruktur werden CPUs freigegeben, um eine bessere Leistung pro Kern zu bieten. Alternativ können Rechenressourcen partitioniert und in Mandanten aufgeteilt werden, um mehr Benutzern Zugriff auf die Systemressourcen zu ermöglichen.
Aufbauend auf seinem Erfolg bei der Nutzung von SmartNICs-, ASIC- und FPGA-Technologien nutzt F5 die Verarbeitung und Inline-Verkehrsposition einer DPU innerhalb der Computerinfrastruktur, um die Arbeitslastkapazität, Leistung und Sicherheit von HCI/HPC-Infrastrukturen zu erhöhen und zu verbessern.
Durch die Nutzung der NVIDIA Bluefield-3 DPUs bietet F5 zahlreiche Vorteile für Dienstanbieter und große Unternehmen, die große Rechenressourcen aufbauen und gleichzeitig die Rechenressourcen maximieren möchten. Hierzu zählen unter anderem:
Für weitere Informationen zu DPU- und F5-integrierten Lösungen klicken Sie bitte auf die Ressourcen auf der rechten Seite.
1Standardmessungen für wissenschaftlich basierte HPC-Messungen bestanden traditionell aus Gleitkommagenauigkeit mit einfacher oder doppelter Genauigkeit (FP32 und FP64). Aktuelle KI-Trends messen mittlerweile eine Leistung von der Hälfte oder weniger (FP16). Die Verwendung einer Speicheradressierung mit geringerer Genauigkeit (Gleitkomma- und Ganzzahldatentypen) ermöglicht ein schnelleres Training und einen geringeren Speicherbedarf der Sprachmodelle.