Was ist eine Datenverarbeitungseinheit (DPU)?

Eine Datenverarbeitungseinheit (DPU) ist ein spezialisierter Prozessor, der datenzentrierte Aufgaben auslagert und beschleunigt, sodass Zentraleinheiten (CPUs) für die Verarbeitung anwendungsspezifischer Arbeitslasten frei werden. DPUs sind für die Verarbeitung von Hochgeschwindigkeitsnetzwerken, Speicheranforderungen und Sicherheitsverarbeitung konzipiert und eignen sich für moderne Rechenzentren mit hoher Dichte und die Anforderungen des Hochleistungsrechnens (HPC).

DPUs im Detail verstehen

DPUs und ihre Gegenstücke, Infrastructure Processing Units (IPUs), erfüllen die Anforderung, CPUs von allgemeinen und durchsatzintensiven Aufgaben zu entlasten. Durch die Reduzierung von Verschlüsselungsaufgaben, Speicher-E/A-Vorgängen und der Verarbeitung von Netzwerkpaketen mit hoher Bandbreite können sich CPUs auf Application mit höherer Dichte konzentrieren, die für containerbasierte Applications, Cloud- oder Hypervisor-Partitionierung und rechenintensive Aufgaben der Künstliche Intelligenz (KI) erforderlich sind.

Zu den wichtigsten Funktionen gehören:

  • Vernetzung: Aufbauend auf den Funktionen intelligenter Netzwerkschnittstellenkarten (SmartNICs) können DPUs große Paketströme mit nahezu Leitungsgeschwindigkeit verarbeiten, Netzwerk-Overlay-Offloading einschließlich VXLAN bereitstellen und Sicherheits- und Application Delivery Controller-Dienste wie Firewall-Unterstützung, TLS-Offload, Lastausgleich und Verkehrsrouting anbieten. Darüber hinaus können DPUs Entropiequellen für kryptografisch sichere Pseudozufallszahlengeneratoren (CSPRNGs) bereitstellen.
  • Lagerung: DPUs beschleunigen die Datenübertragung zwischen Hosts und Speicher und unterstützen erweiterte Speicherprotokolle wie Non-Volatile Memory Express (NVMe) over Fabrics (oF)-Protokolle. Dadurch werden die für Solid-State-Speicher und hyperkonvergente Infrastrukturen (HCI) erforderlichen höheren Geschwindigkeiten erreicht. DPUs bieten außerdem Unterstützung für Verschlüsselung/Entschlüsselung, Komprimierung und Deduplizierungsverarbeitung, wodurch die Belastung der CPUs weiter reduziert wird.
  • Virtualisierung: Durch das Auslagern von Hypervisor- und containerbasierten Netzwerkaufgaben wird die Möglichkeit verbessert, die HCI-Infrastruktur für höhere Workloaddichten zu partitionieren und zu mandanten, was zu einem höheren ROI der Infrastruktur führt.

Vorteile der DPUs

Die Optimierung der CPU-Leistung für anwendungsspezifische Aufgaben in HCI- und HPC-Umgebungen wird immer wichtiger, da Rechendichte und Stromverbrauch zu neuen Maßstäben für Infrastrukturkostenvorteile werden. Fortschritte bei der Netzwerkgeschwindigkeit und Latenzreduzierung, der Speicherleistung und die Notwendigkeit, mehr Benutzern Rechenressourcen zur Verfügung zu stellen, belasten die nicht anwendungsspezifischen Aufgaben, die von den CPUs verlangt werden, noch stärker. Die derzeit akzeptierten Erfolgsmaßstäbe, die aus der HPC-Branche übernommen wurden, werden durch CPU-Dichte und Leistung definiert.

Die Verhältnisse der Datenpunkte zur Verarbeitungsleistung umfassen (sind jedoch nicht beschränkt auf):

  • Anzahl der CPU-Kerne (nach Rack, Knoten oder insgesamt für Benutzer verfügbar)
  • Gleitkommaoperationen pro Sekunde (FLOPS)1
  • Stromverbrauch (gemessen in Durchschnitts- und Spitzen-Kilowatt)
  • Physische Raummessung (gemessen in Quadratfuß oder Metern)

Diese Messungen werden von HPCs schon lange verwendet, um die Leistung von Supercomputern beim Start und im Laufe der Zeit zu messen. Mit der fortschreitenden Konvergenz der Technologien beider Branchen werden sie zunehmend auch auf herkömmliche Rechenzentren angewendet.

DPUs bieten eine Möglichkeit, die CPU-Verfügbarkeit für application und rechenintensive Pipelines zu erhöhen, bei denen es zu Engpässen kommen kann, wenn die CPU für die Verarbeitung von Nicht-Rechenaufgaben auf niedrigerer Ebene benötigt wird. Diese Aufgaben werden noch komplexer, wenn Dichte und Application zunehmen. DPUs bieten daher eine Möglichkeit, diesen Engpass zu beseitigen. Durch das Hinzufügen von DPUs zur Rechenzentrumsinfrastruktur werden CPUs freigegeben, um eine bessere Leistung pro Kern zu bieten. Alternativ können Rechenressourcen partitioniert und in Mandanten aufgeteilt werden, um mehr Benutzern Zugriff auf die Systemressourcen zu ermöglichen.

Wie funktioniert F5 mit DPUs?

Aufbauend auf seinem Erfolg bei der Nutzung von SmartNICs-, ASIC- und FPGA-Technologien nutzt F5 die Verarbeitung und Inline-Verkehrsposition einer DPU innerhalb der Computerinfrastruktur, um die Arbeitslastkapazität, Leistung und Sicherheit von HCI/HPC-Infrastrukturen zu erhöhen und zu verbessern.

Durch die Nutzung der NVIDIA Bluefield-3 DPUs bietet F5 zahlreiche Vorteile für Dienstanbieter und große Unternehmen, die große Rechenressourcen aufbauen und gleichzeitig die Rechenressourcen maximieren möchten. Hierzu zählen unter anderem:

  • Vereinfachte Integration: F5 kombiniert Vernetzung, Sicherheit, Verkehrsmanagement und Lastausgleich in einer konsolidierten Suite von Diensten, die auf DPU-Integrationen ausgerichtet sind. Es bietet eine integrierte Ansicht dieser Dienste über die gesamte HCI/HPC-Infrastruktur hinweg sowie die erforderliche Beobachtung und Granulare Kontrolle zur Optimierung rechenintensiver Workloads.
  • Verbesserte Sicherheit: F5 unterstützt wichtige Sicherheitsfunktionen wie Firewall, Abwehr von Distributed Denial-of-Service (DDoS)-Angriffen, API-Schutz, Verschlüsselung und Zertifikatsverwaltung, indem diese Funktionen auf die DPU ausgelagert werden.
  • Verbesserte Leistung: F5 beschleunigt die Vernetzung und Sicherheit, was entscheidend ist, um die Anforderungen einer hochdichten Infrastruktur zu erfüllen und Applications im Cloud-Maßstab bereitzustellen.
  • Unterstützung mehrerer Mandanten: F5 ermöglicht eine skalierbare Multi-Tenant-Architektur, die es Dienstanbietern ermöglicht, eine Vielzahl von Mandanten sicher auf derselben Infrastruktur zu hosten und gleichzeitig ihre Arbeitslasten und Daten getrennt und sicher zu halten.

Für weitere Informationen zu DPU- und F5-integrierten Lösungen klicken Sie bitte auf die Ressourcen auf der rechten Seite.


1Standardmessungen für wissenschaftlich basierte HPC-Messungen bestanden traditionell aus Gleitkommagenauigkeit mit einfacher oder doppelter Genauigkeit (FP32 und FP64). Aktuelle KI-Trends messen mittlerweile eine Leistung von der Hälfte oder weniger (FP16). Die Verwendung einer Speicheradressierung mit geringerer Genauigkeit (Gleitkomma- und Ganzzahldatentypen) ermöglicht ein schnelleres Training und einen geringeren Speicherbedarf der Sprachmodelle.