Was ist eine Datenverarbeitungseinheit (DPU)?

Eine Datenverarbeitungseinheit (DPU) ist ein spezialisierter Prozessor, der datenzentrierte Aufgaben auslagert und beschleunigt, sodass Zentraleinheiten (CPUs) für die Verarbeitung anwendungsspezifischer Arbeitslasten frei werden. DPUs sind für die Verarbeitung von Hochgeschwindigkeitsnetzwerken, Speicheranforderungen und Sicherheitsverarbeitung konzipiert und eignen sich für moderne Rechenzentren mit hoher Dichte und die Anforderungen des Hochleistungsrechnens (HPC).

DPUs im Detail verstehen

DPUs und ihre Gegenstücke, Infrastructure Processing Units (IPUs), erfüllen die Anforderung, CPUs von allgemeinen und durchsatzintensiven Aufgaben zu entlasten. Durch die Reduzierung von Verschlüsselungsaufgaben, Speicher-E/A-Vorgängen und der Verarbeitung von Netzwerkpaketen mit hoher Bandbreite können sich CPUs auf Application mit höherer Dichte konzentrieren, die für containerbasierte Applications, Cloud- oder Hypervisor-Partitionierung und rechenintensive Aufgaben der Künstliche Intelligenz (KI) erforderlich sind.

Zu den wichtigsten Funktionen gehören:

  • Vernetzung: Aufbauend auf den Funktionen intelligenter Netzwerkschnittstellenkarten (SmartNICs) können DPUs große Paketströme mit nahezu Leitungsgeschwindigkeit verarbeiten, Netzwerk-Overlay-Offloading einschließlich VXLAN bereitstellen und Sicherheits- und Application Delivery Controller-Dienste wie Firewall-Unterstützung, TLS-Offload, Lastausgleich und Verkehrsrouting anbieten. Darüber hinaus können DPUs Entropiequellen für kryptografisch sichere Pseudozufallszahlengeneratoren (CSPRNGs) bereitstellen.
  • Lagerung: DPUs beschleunigen die Datenübertragung zwischen Hosts und Speicher und unterstützen erweiterte Speicherprotokolle wie Non-Volatile Memory Express (NVMe) over Fabrics (oF)-Protokolle. Dadurch werden die für Solid-State-Speicher und hyperkonvergente Infrastrukturen (HCI) erforderlichen höheren Geschwindigkeiten erreicht. DPUs bieten außerdem Unterstützung für Verschlüsselung/Entschlüsselung, Komprimierung und Deduplizierungsverarbeitung, wodurch die Belastung der CPUs weiter reduziert wird.
  • Virtualisierung: Durch das Auslagern von Hypervisor- und containerbasierten Netzwerkaufgaben wird die Möglichkeit verbessert, die HCI-Infrastruktur für höhere Workloaddichten zu partitionieren und zu mandanten, was zu einem höheren ROI der Infrastruktur führt.

Vorteile der DPUs

Die Optimierung der CPU-Leistung für anwendungsspezifische Aufgaben in HCI- und HPC-Umgebungen wird immer wichtiger, da Rechendichte und Energieverbrauch neue Kennzahlen für Kostenvorteile bei der Infrastruktur sind. Schnelleres Netzwerk, geringere Latenz, bessere Speicherleistung und der Bedarf, mehr Anwender mit Rechenressourcen zu versorgen, erhöhen die Anforderungen an allgemeine CPU-Aufgaben zusätzlich. Die gängigen Maßstäbe für Erfolg, übernommen aus der HPC-Branche, basieren auf CPU-Dichte und Leistung.

Die Verhältnisse der Datenpunkte zur Verarbeitungsleistung umfassen (sind jedoch nicht beschränkt auf):

  • Anzahl der CPU-Kerne (nach Rack, Knoten oder insgesamt für Benutzer verfügbar)
  • Gleitkommaoperationen pro Sekunde (FLOPS)1
  • Stromverbrauch (gemessen in Durchschnitts- und Spitzen-Kilowatt)
  • Physische Raummessung (gemessen in Quadratfuß oder Metern)

Diese Messungen werden von HPCs schon lange verwendet, um die Leistung von Supercomputern beim Start und im Laufe der Zeit zu messen. Mit der fortschreitenden Konvergenz der Technologien beider Branchen werden sie zunehmend auch auf herkömmliche Rechenzentren angewendet.

DPUs ermöglichen es, die CPU-Kapazität für anwendungs- und rechenintensive Abläufe zu erhöhen, die blockieren können, wenn die CPU niedrigstufige Aufgaben ohne Rechenaufwand übernimmt. Solche Aufgaben nehmen mit steigender Dichte und Anzahl der Anwendungen zu, wodurch DPUs helfen, diesen Engpass aufzulösen. Setzen wir DPUs in der Rechenzentrumsinfrastruktur ein, entlasten wir die CPUs und steigern die Leistung pro Kern. Alternativ lassen sich Rechenressourcen aufteilen und mehreren Nutzern zugänglich machen, um den Systemzugriff zu erweitern.

Wie funktioniert F5 mit DPUs?

Aufbauend auf seinem Erfolg bei der Nutzung von SmartNICs-, ASIC- und FPGA-Technologien nutzt F5 die Verarbeitung und Inline-Verkehrsposition einer DPU innerhalb der Computerinfrastruktur, um die Arbeitslastkapazität, Leistung und Sicherheit von HCI/HPC-Infrastrukturen zu erhöhen und zu verbessern.

Mit den NVIDIA Bluefield-3 DPUs bietet F5 vielfältige Vorteile für Serviceanbieter und Großunternehmen, die ihre Rechenkapazitäten großflächig ausbauen und gleichzeitig optimal nutzen wollen. Dazu gehören unter anderem:

  • Vereinfachte Integration: F5 kombiniert Vernetzung, Sicherheit, Verkehrsmanagement und Lastausgleich in einer konsolidierten Suite von Diensten, die auf DPU-Integrationen ausgerichtet sind. Es bietet eine integrierte Ansicht dieser Dienste über die gesamte HCI/HPC-Infrastruktur hinweg sowie die erforderliche Beobachtung und Granulare Kontrolle zur Optimierung rechenintensiver Workloads.
  • Verbesserte Sicherheit: F5 unterstützt wichtige Sicherheitsfunktionen wie Firewall, Abwehr von Distributed Denial-of-Service (DDoS)-Angriffen, API-Schutz, Verschlüsselung und Zertifikatsverwaltung, indem diese Funktionen auf die DPU ausgelagert werden.
  • Verbesserte Leistung: F5 beschleunigt die Vernetzung und Sicherheit, was entscheidend ist, um die Anforderungen einer hochdichten Infrastruktur zu erfüllen und Applications im Cloud-Maßstab bereitzustellen.
  • Unterstützung mehrerer Mandanten: F5 ermöglicht eine skalierbare Multi-Tenant-Architektur, die es Dienstanbietern ermöglicht, eine Vielzahl von Mandanten sicher auf derselben Infrastruktur zu hosten und gleichzeitig ihre Arbeitslasten und Daten getrennt und sicher zu halten.

Weitere Einzelheiten zu DPU und den integrierten Lösungen von F5 finden Sie in den Ressourcen rechts.


1Standardmessungen für wissenschaftlich basierte HPC-Messungen bestanden traditionell aus Gleitkommagenauigkeit mit einfacher oder doppelter Genauigkeit (FP32 und FP64). Aktuelle KI-Trends messen mittlerweile eine Leistung von der Hälfte oder weniger (FP16). Die Verwendung einer Speicheradressierung mit geringerer Genauigkeit (Gleitkomma- und Ganzzahldatentypen) ermöglicht ein schnelleres Training und einen geringeren Speicherbedarf der Sprachmodelle.