BLOG | BÜRO DES CTO

Edge 2.0-Manifest: Edge Computing neu definieren

F5 Miniaturansicht
F5
Veröffentlicht am 08. Februar 2021


Der Abschluss der Übernahme von Volterra durch F5 markiert den Beginn der nächsten Phase des Edge Computing und läutet die Edge 2.0- Ära ein. Wir gehen davon aus, dass im Zeitalter von Edge 2.0 digitale Unternehmen in allen Branchen Edge-Computing-Plattformen einsetzen werden, um Anwendungen bereitzustellen und Daten zu verarbeiten und zu analysieren. Die Edge-Plattform wird ein wesentlicher Bestandteil des Benutzererlebnisses bei allen digitalen Diensten sein.

In diesem Artikel erkläre ich die Entwicklung der Edge-Architektur und diskutiere die Technologievision von F5 für das Edge 2.0-Paradigma.

Kante 1.0

Edge-Technologien gibt es bereits seit vielen Jahren in embryonaler Form, allerdings mit einem anderen Schwerpunkt. Zu Beginn der Entstehung des Internets lag der Schwerpunkt auf statischen Inhalten und wurde als Content Delivery Network (CDN) bezeichnet. Tim Berners-Lee, der Erfinder des World Wide Web, sah die Überlastungsprobleme voraus, die durch die Übertragung großer Mengen von Webinhalten über langsame Links auf die Internetnutzer zukommen würden: Er nannte dieses Problem das „World Wide Wait“. Von dieser Herausforderung fasziniert, untersuchte MIT-Professor Tom Leighton das Problem mithilfe wissenschaftlicher Forschung. Gemeinsam mit seinem Schüler Danny Lewin gründete er im Jahr 1998 Akamai Technologies, das das Architekturparadigma des Content Delivery Network entwickelte.

Der Schwerpunkt des CDN-Paradigmas lag passenderweise auf der Verteilung der relativ statischen Webinhalte oder Webanwendungen, um sie näher an die Benutzer zu bringen und so dem Bedarf an Geschwindigkeit und Redundanz gerecht zu werden. Dieser Bedarf führte zu einer Reihe zentraler Architekturgrundsätze, darunter physischer Point of Presence (PoP) in der Nähe der Endbenutzer, Inhalts-Caching, Standortvorhersage, Vermeidung von Überlastungen, verteilte Routing-Algorithmen und mehr. Obwohl sich Netzwerke und Geräte geändert haben, dominieren diese Designprinzipien auch heute noch die grundlegenden CDN-Architekturen.

Kante 1.5

Inzwischen hat sich das Ökosystem der Internet-„Inhalte“ weiterentwickelt. Anwendungen sind zur primären Form von Inhalten im Internet geworden. Daher konnte der verteilte Rand nicht in seiner ursprünglichen Form bestehen bleiben: Er musste sich zusammen mit den von ihm bereitgestellten Anwendungsarchitekturen weiterentwickeln und stand gleichzeitig unter zunehmendem Druck, eine wachsende digitale Wirtschaft abzusichern. Da ein großer Teil der Weltwirtschaft heute in hohem Maße von handelsorientierten Anwendungen abhängt, wurden Sicherheitsdienste schnell zu einem unverzichtbaren Zusatzangebot für CDN-Anbieter, die durch ihre weltweite Präsenz näher am Benutzer sind – und so Bedrohungen früher beheben – als die Cloud und herkömmliche Rechenzentren. Diese Dienste wurden auf der Infrastruktur zur Verteilung von Inhalten aufgebaut und stellen daher geschlossene, proprietäre Umgebungen dar. Die von einem CDN-Anbieter angebotenen Dienste sind weder mit denen eines anderen kompatibel noch auf diese übertragbar.

Darüber hinaus gingen die grundlegenden Designprinzipien des ursprünglichen CDN-Architekturparadigmas – mit denen die ursprüngliche „World Wide Wait“-Herausforderung von Tim Berners-Lee im Internet gelöst werden sollte – davon aus, dass die beiden Endpunktsätze (die Benutzer und die Inhalte, auf die sie zugreifen) relativ passive Einheiten sind, und übertrugen die Lösung des Problems in erster Linie einer mittleren Ebene: in diesem Fall einem CDN. Die Entwicklung des Internet-Ökosystems, insbesondere die Umstellung auf containerbasierte Microservices-Anwendungen und intelligentes Endbenutzer-Computing, hat diese Annahme völlig widerlegt. Eine konzeptionelle Ansicht der architektonischen Sphäre von Edge 1.x finden Sie in Abbildung 1. Auf beide Faktoren gehen wir im nächsten Abschnitt genauer ein.

Abb. 1: Edge 1.x-Architektur-Lösungsbereich
Abb. 1: Edge 1.x-Architektur-Lösungsbereich

Katalysatoren der Edge-Evolution

Unternehmen müssen zwar noch immer statische Inhalte verteilen, erwarten jedoch, dass Edge in ihrer Anwendungsarchitektur eine wichtigere Rolle spielt. Aus der jüngsten von F5 durchgeführten Studie geht hervor, dass 76 % der befragten Unternehmen planen, Edge für verschiedene Anwendungsfälle zu nutzen, darunter zur Leistungssteigerung, zur Beschleunigung der Datenerfassung und -analyse, zur Unterstützung des IoT und zur Nutzung von Funktionen für die Echtzeit- oder nahezu Echtzeitverarbeitung. Dazu zählen auch 25 % der Unternehmen, die für die Dienste einer einfachen CDN-Funktion in ihrer Infrastruktur keine Rolle sehen. Diese Organisationen erstellen hochdynamische, global verteilte Anwendungen mit sicheren und optimalen Benutzererlebnissen. Sie erwarten von Edge die Präsenz und Flexibilität standortübergreifender Anwendungsdienste und die konsistenten Bausteine, die sie für einen erfolgreichen Einsatz benötigen.  

Heute sind wir der Ansicht, dass den Diensten von Edge-Anbietern mit CDN-zentrierter Architektur – beispielsweise Akamai, Fastly und Cloudflare – die grundlegenden Eigenschaften fehlen, die zur Bereitstellung dieser anwendungszentrierten Funktionen erforderlich sind. Bei verteilten Anwendungen auf Kubernetes-Basis beispielsweise kann die in einem Container verpackte Anwendungslogik dynamisch an jeden geeigneten Rechenstandort mit einem unterstützenden Kubernetes-Stack verschoben werden. Dies ist – zur Optimierung des Benutzererlebnisses – unabhängig davon möglich, ob es sich beim Rechenstandort um eine IaaS-Instanz aus einer öffentlichen Cloud, einen physischen Server im Besitz des Unternehmens oder eine virtuelle Maschine im PoP des Edge-Anbieters handelt. Daher sind Anwendungen nicht länger die „passiven“ Routingziele des Bereitstellungsnetzwerks, sondern aktive Teilnehmer der Edge-Lösung. Dies steht im direkten Gegensatz zu den Architekturprinzipien, auf denen die Edge-Lösungen dieser CDN-Anbieter basieren. Das heißt, ihre Edge-Lösungen stammen aus einer Zeit, als Inhalte (oder Anwendungen) statische Einheiten waren, die mit den physischen Standorten verknüpft waren. Sie gingen davon aus, dass nur das Content Delivery Network als „intelligente Plattform“ fungiert, um Benutzer mit Anwendungen zu verbinden, während die Anwendungen (und Benutzer) passive „Endpunkte“ der „intelligenten Plattform“ bleiben. Dieser Ansatz stellt nicht mehr die beste architektonische Möglichkeit dar, Benutzer mit Inhalten oder Anwendungen zu verbinden.

Es sind nicht nur Anwendungen. Auch die Benutzer haben sich weiterentwickelt. Nicht nur sind sie in puncto digitaler Raffinesse und Appetit auf digitales Engagement seit der Gründung von Akamai im Jahr 1998 um Lichtjahre voraus, die Technologie hat auch eine Änderung ihrer Definition erzwungen. Heutzutage kann ein „Benutzer“ durchaus eine Maschine, ein Skript oder ein automatisierter Dienst sein, der im Auftrag eines Menschen handelt. Es könnte sich dabei um einen Sensor handeln, der wichtige Daten aus einer Produktionsanlage oder einem landwirtschaftlichen Feld erfasst. Einerseits haben diese „Benutzer“ weiterhin die gleichen Wünsche ihrer menschlichen Gegenstücke nach Geschwindigkeit, Sicherheit und Privatsphäre. Andererseits beteiligen sich diese neuen „Benutzer“ – etwa intelligente IoT-Endpunkte mit eingebetteten Anwendungsstapeln – häufig an der dynamischen Verarbeitung der Anwendungslogik und Datenanalyse, um sichere und optimale digitale Benutzererlebnisse zu gewährleisten. Sie sind selbst zu Hosts bestimmter Anwendungsfunktionen geworden, um zur Optimierung digitaler Erlebnisse beizutragen. Wenn WebAssembly beispielsweise auf einem intelligenten Endbenutzergerät ausgeführt wird, ist es für den Endpunkt möglich geworden, umfassender an Anwendungssicherheitsfunktionen (z. B. Anwendungs-Firewall) oder Anwendungsdatenanalysen teilzunehmen.

Diese beiden großen Veränderungen auf Branchenebene – moderne, containerbasierte verteilte Anwendungen und intelligente Endpunkte – werden schnell zu einem Teil erweiterter Edge-Lösungen und ersetzen das alte Content Delivery Network. Die Architekturprinzipien von CDN- oder inhaltszentrierten Edge 1.x-Lösungen, die ursprünglich auf die Lösung der Herausforderungen bei der Inhaltsbereitstellung in einem Internet-Ökosystem aus der Zeit um das Jahr 2000 ausgerichtet waren, eignen sich nicht mehr zur Bewältigung der Herausforderungen global verteilter Anwendungen und digitaler Erlebnisse der Zukunft. Die Branche braucht ein neues Edge-Paradigma: ein Edge 2.0-Paradigma. Eine konzeptionelle Ansicht der Edge 2.0-Architektursphäre finden Sie in Abbildung 2.

Abb. 2: Edge 2.0-Architekturlösungsbereich
Abb. 2: Edge 2.0-Architekturlösungsbereich

Aus geschäftsorientierter Sicht möchten die heutigen IT- und Digitalunternehmensleiter in Unternehmen, dass die Verteilung und Sicherheit von Edge-Anwendungen zu einem integralen Bestandteil ihrer digitalen Pipeline und ihres Produktionsprozesses wird. Auf diese Weise können ihre Anwendungen nach dem Motto „einmal erstellen und überall auf der Welt bereitstellen“ und bieten so das gleiche nahtlose, sichere und optimierte Benutzererlebnis. Die CDN-zentrierten „Anwendungsdienste“ der bestehenden Edge-Anbieter – Akamai, Fastly und Cloudflare – erfordern von Unternehmen eine aufwändige Neustrukturierung ihrer Anwendungen und eine Nachrüstung mit dem Design, den Standorten, Diensten und Tools der CDN-zentrierten Edge-Anbieter. Die daraus resultierenden Anwendungsarchitekturen lassen sich nicht problemlos in die DevOps- und IT-Workflows des Unternehmens integrieren, die die Bereitstellung und den Betrieb seiner Workloads steuern. Daher stellen diese „Anwendungsdienste“, die auf geschlossenen CDN-zentrierten Systemen und Diensten basieren, ein weiteres betriebliches Hindernis für Unternehmen dar, die eine nahtlose Multi-Cloud-Lösung für eine ordnungsgemäße und effektive Anwendungsverteilung suchen.

Kante 2.0

Die zentralen Anwendungsherausforderungen, die Edge bewältigen sollte – Geschwindigkeit und dann Sicherheit – bestehen noch heute. Was sich geändert hat, ist die Definition von Anwendung (von einer statischen Instanz an einem festen Ort zu „beweglichen“ Containereinheiten), Benutzer (vom menschlichen Benutzer zu einem intelligenten „Ding“) und Standort (von einer IP-Adresse zu einer logischen Identifikation). Die durch COVID deutlich beschleunigte und alle Branchen erfassende Digitalisierung der Geschäftswelt führt zu einer neuen Klasse digitaler Erlebnisse, die allein durch die Verlagerung der Inhalte näher an den Benutzer nicht erreicht werden kann. Es erfordert ein neues Edge-Paradigma – eines, das sich auf eine ganzheitliche Anwendungsverteilung konzentriert und auf einem anderen Satz von Technologie-Designprinzipien basiert – das Edge 2.0-Paradigma.

Edge 2.0 wurde für moderne Benutzer und Anwendungen entwickelt. Es kombiniert die in öffentlichen Clouds, der privaten Cloud oder den Rechenzentren der Kunden vor Ort und sogar Bare-Metal-Maschinen oder intelligenten Geräten an Remote-Standorten verfügbaren Ressourcen, um seine elastische Präsenz bei Bedarf virtuell zu erweitern. Es umfasst moderne Entwicklungs- und Bereitstellungsmethoden, um ein integriertes Anwendungslebenszyklusmanagement anzubieten und ermöglicht DevOps mit globaler Beobachtbarkeit. Was die Sicherheit von Anwendungen betrifft, lehnt Edge 2.0 die traditionellen perimeterbasierten Verteidigungsansätze der Vergangenheit ab und setzt stattdessen auf ein System, das Sicherheit in die Edge-Plattform selbst integriert und eingebettete Tools zum Schutz der Privatsphäre bietet. Es trennt den Ort für die Datenverarbeitung und -analyse von dem der Anwendungslogik, ermöglicht aber gleichzeitig die Steuerung aller Vorgänge durch Unternehmensrichtlinien. Edge 2.0 erkennt außerdem, wann Workloads eine spezielle Verarbeitung erfordern, und zielt auf die Workloads entsprechend ab, um spezielle Hardware für optimale Effizienz zu nutzen. Alle diese werden von einer einheitlichen Steuerebene gesteuert.

Der Die Edge 2.0-Plattform basiert auf den folgenden wichtigen Designprinzipien:

  • Einheitliche Steuerungsebene
    Edge kann jede Umgebung umfassen, einschließlich Benutzerendpunkte und öffentliche Clouds. Eine einheitliche Kontrollebene gewährleistet die gemeinsame Definition von Sicherheitsrichtlinien, Datenstandortrichtlinien und Benutzeridentitätsverwaltung in verschiedenen Umgebungen und erzwingt die Ausführung durch die Integration mit Automatisierungs- und Orchestrierungstools.

  • Anwendungsorientiert
    Die Edge 2.0-Plattform lässt sich vollständig in Tools zur Anwendungslebenszyklusverwaltung integrieren. Anwendungssicherheitsrichtlinien, Datenstandortrichtlinien, Identitätsverwaltung und Ressourcenorchestrierung werden über die einheitliche Steuerungsebene „deklariert“ und in jeder Umgebung durchgesetzt, in der die Plattform ausgeführt wird. Der Edge wird zu einer „deklarierten Eigenschaft“ der Zielanwendung (was dazu führt, dass jede Anwendung ihren eigenen „personalisierten“ Edge hat) und wird von der Plattform „ausgeführt“, ohne dass eine manuelle Bereitstellung erforderlich ist. Entwickler können sich einfach auf die Anwendungslogik, Anwendungsinteraktionen (APIs) und Geschäftsabläufe konzentrieren, ohne sich um die Verwaltung von Infrastruktur oder Standorten kümmern zu müssen.

  • Verteilte Sicherheit eingebettet in die Edge-Plattform
    In der Edge 2.0-Plattform werden Anwendungssicherheitsrichtlinien auf gemeinsame Weise über die einheitliche Steuerungsebene definiert. Sie werden zur Durchsetzung in jeder Umgebung verteilt, in der die Anwendung ausgeführt wird. Direkt in die Plattform eingebettete Sicherheitsfunktionen (z. B. Verschlüsselung, erstklassige BOT-Erkennung) ermöglichen die standardmäßige Integration dieser Sicherheitsfunktionen in die Anwendung.

  • Verteilte Datenverarbeitung und eingebettete Analytik
    Die Edge 2.0-Plattform wird zu einer globalen Struktur für Anwendungslogik und einer globalen Struktur für Datenverarbeitung und -analyse. Jeder digitale Dienst erfordert sowohl Daten als auch Anwendungslogik. Allerdings sollte es nicht erforderlich sein, dass der Speicherort für die Speicherung, Verarbeitung und Umwandlung der Daten derselbe ist, an dem sich die Anwendungslogik befindet. Der Datenspeicherort sollte unabhängig als eine Reihe von Richtlinien auf Plattformebene angegeben werden, die durch Faktoren wie Datengravitation, Vorschriften (PCI, DSGVO usw.) und das relative Preis-Leistungs-Verhältnis der Verarbeitung bestimmt werden. Ähnlich wie Sicherheitsrichtlinien sollten Richtlinien zum Datenstandort von den Benutzern über die einheitliche Steuerungsebene „deklariert“ und von der Plattform in jeder Umgebung durchgesetzt werden. Die Edge 2.0-Plattform spielt auch bei anderen Datenverwaltungsrichtlinien eine Rolle, beispielsweise bei der Datenherkunft – indem sie diese Datendetails als eingebettete Attribute speichert – und verfügt darüber hinaus über eine Reihe integrierter Betriebsfunktionen für Beobachtbarkeit, Telemetrie-Streaming, ML-Tools und ETL-Dienste.

  • Softwaredefinierte elastische Kante
    In Edge 2.0 wird „Edge“ nicht mehr durch physische PoPs an bestimmten Standorten definiert. Stattdessen wird es dynamisch durch die Edge 2.0-Steuerungsebene über Ressourcen definiert, die überall dort vorhanden sind, wo ein Kunde sie wünscht: in öffentlichen Clouds, Hypervisoren, Rechenzentren oder privaten Clouds oder sogar auf physischen Maschinen an „entfernten“ Standorten, die für ihr Unternehmen einzigartig sind. Die Verbindungsnetzwerkfunktionen werden außerdem softwaredefiniert bereitgestellt und über die private oder öffentliche WAN-Infrastruktur gelegt, ohne dass ein herkulischer Montage- und Konfigurationsaufwand erforderlich ist. Es reagiert auf die „Absichtserklärung“ der Zielanwendung, indem es auf Anforderung einer Anwendung einen angepassten, softwaredefinierten elastischen Edge bereitstellt. „Edge“ – und alles, was es im Rahmen dieser Deklaration für die Anwendung festlegt – wird zu einer einfachen, benutzerfreundlichen Eigenschaft der Anwendung.

  • Hardwareoptimiertes Computing
    Die Weiterentwicklung der Prozessor- und Chipsatztechnologien – insbesondere GPU, DPU, TPU und FPGAs, deren Leistungsfähigkeit und Kapazität immer weiter zunimmt – hat es möglich gemacht, die Ressourcennutzung spezialisierter Computer für bestimmte Workloadtypen deutlich zu optimieren. Eine Edge 2.0-Plattform wird mit Systemen interagieren, die über diese spezielle Hardware verfügen, um bestimmte Anwendungs-Workloads, die von dieser Unterstützung profitieren würden, anzusprechen, zu landen und auszuführen. Beispielsweise findet und konfiguriert es GPU-Ressourcen für AL/ML-intensive Workloads oder lokalisiert und integriert eine DPU für spezielle Anwendungssicherheits- und Netzwerkdienste, die eine Anwendung benötigt. Die Hardwarekenntnis von Edge 2.0 bietet interessante Vorteile für die Erstellung intelligenter „Industriesysteme“ für spezielle Anwendungen und damit grenzenlose Möglichkeiten für die Etablierung attraktiver IoT-Lösungen, bei denen eine lokale Echtzeitverarbeitung erforderlich ist. Beispielsweise kann eine Ladestation für Elektrofahrzeuge als Datenaggregationspunkt für die großen Datenmengen dienen, die von den Sensoren des Elektrofahrzeugs generiert werden. Oder ein autonomes Fahrzeug mit Android-Betriebssystem kann sich wie ein mobiles Rechenzentrum verhalten, das kontinuierlich eine hardwaregestützte Selbstdiagnose durchführt. Unsere Vision ist, dass die Edge 2.0-Plattform alle diese intelligenten Spezialsysteme unterstützen kann und dazu beiträgt, das globale digitale Erlebnis unserer Kunden zu ermöglichen und zu verbessern.

Abschluss

Edge 2.0 wurde mit der Vision entwickelt, die Herausforderungen der verteilten Anwendungen von morgen unter Berücksichtigung nahtloser globaler digitaler Erlebnisse zu lösen. Wir schreiben nicht mehr das Jahr 1998. Das Internet-Ökosystem, das Cloud-Computing und die digitale Transformation haben sich mittlerweile deutlich weiter entwickelt als man es sich bei der ersten Konzeption des CDN-Architekturmodells vorstellen konnte. Mit der Erkenntnis, dass es sich nicht nur um eine Multi-Cloud-Welt, sondern auch um eine allgegenwärtige digitale Welt handelt, versucht das Edge 2.0-Paradigma, die Herausforderungen der Zukunft zu lösen, indem es die einschränkenden Annahmen der Vergangenheit über Bord wirft. Es verspricht echte Portabilität von Anwendungen in allen Umgebungen sowie die Bereitstellung der Dienste, die sie für einen erfolgreichen, sicheren, schnellen und nahtlosen Betrieb des Benutzers benötigen.

Durch die kürzlich erfolgte Übernahme von Volterra ist F5 in der perfekten Position, die Entwicklung dieses anwendungszentrierten Edge 2.0-Paradigmas anzuführen.