Eine Datenverarbeitungseinheit (DPU) ist ein spezialisierter Prozessor, der datenzentrierte Aufgaben auslagert und beschleunigt, sodass Zentraleinheiten (CPUs) für die Verarbeitung anwendungsspezifischer Arbeitslasten frei werden. DPUs sind für die Verarbeitung von Hochgeschwindigkeitsnetzwerken, Speicheranforderungen und Sicherheitsverarbeitung konzipiert und eignen sich für moderne Rechenzentren mit hoher Dichte und die Anforderungen des Hochleistungsrechnens (HPC).
DPUs und ihre Gegenstücke, Infrastructure Processing Units (IPUs), erfüllen die Anforderung, CPUs von allgemeinen und durchsatzintensiven Aufgaben zu entlasten. Durch die Reduzierung von Verschlüsselungsaufgaben, Speicher-E/A-Vorgängen und der Verarbeitung von Netzwerkpaketen mit hoher Bandbreite können sich CPUs auf Application mit höherer Dichte konzentrieren, die für containerbasierte Applications, Cloud- oder Hypervisor-Partitionierung und rechenintensive Aufgaben der Künstliche Intelligenz (KI) erforderlich sind.
Zu den wichtigsten Funktionen gehören:
Die Optimierung der CPU-Leistung für anwendungsspezifische Aufgaben in HCI- und HPC-Umgebungen wird immer wichtiger, da Rechendichte und Energieverbrauch neue Kennzahlen für Kostenvorteile bei der Infrastruktur sind. Schnelleres Netzwerk, geringere Latenz, bessere Speicherleistung und der Bedarf, mehr Anwender mit Rechenressourcen zu versorgen, erhöhen die Anforderungen an allgemeine CPU-Aufgaben zusätzlich. Die gängigen Maßstäbe für Erfolg, übernommen aus der HPC-Branche, basieren auf CPU-Dichte und Leistung.
Die Verhältnisse der Datenpunkte zur Verarbeitungsleistung umfassen (sind jedoch nicht beschränkt auf):
Diese Messungen werden von HPCs schon lange verwendet, um die Leistung von Supercomputern beim Start und im Laufe der Zeit zu messen. Mit der fortschreitenden Konvergenz der Technologien beider Branchen werden sie zunehmend auch auf herkömmliche Rechenzentren angewendet.
DPUs ermöglichen es, die CPU-Kapazität für anwendungs- und rechenintensive Abläufe zu erhöhen, die blockieren können, wenn die CPU niedrigstufige Aufgaben ohne Rechenaufwand übernimmt. Solche Aufgaben nehmen mit steigender Dichte und Anzahl der Anwendungen zu, wodurch DPUs helfen, diesen Engpass aufzulösen. Setzen wir DPUs in der Rechenzentrumsinfrastruktur ein, entlasten wir die CPUs und steigern die Leistung pro Kern. Alternativ lassen sich Rechenressourcen aufteilen und mehreren Nutzern zugänglich machen, um den Systemzugriff zu erweitern.
Aufbauend auf seinem Erfolg bei der Nutzung von SmartNICs-, ASIC- und FPGA-Technologien nutzt F5 die Verarbeitung und Inline-Verkehrsposition einer DPU innerhalb der Computerinfrastruktur, um die Arbeitslastkapazität, Leistung und Sicherheit von HCI/HPC-Infrastrukturen zu erhöhen und zu verbessern.
Mit den NVIDIA Bluefield-3 DPUs bietet F5 vielfältige Vorteile für Serviceanbieter und Großunternehmen, die ihre Rechenkapazitäten großflächig ausbauen und gleichzeitig optimal nutzen wollen. Dazu gehören unter anderem:
Weitere Einzelheiten zu DPU und den integrierten Lösungen von F5 finden Sie in den Ressourcen rechts.
1Standardmessungen für wissenschaftlich basierte HPC-Messungen bestanden traditionell aus Gleitkommagenauigkeit mit einfacher oder doppelter Genauigkeit (FP32 und FP64). Aktuelle KI-Trends messen mittlerweile eine Leistung von der Hälfte oder weniger (FP16). Die Verwendung einer Speicheradressierung mit geringerer Genauigkeit (Gleitkomma- und Ganzzahldatentypen) ermöglicht ein schnelleres Training und einen geringeren Speicherbedarf der Sprachmodelle.