BLOG | BÜRO DES CTO

Edge 2.0-Manifest: Edge Computing neu definieren

F5 Miniaturansicht
F5
Veröffentlicht am 08. Februar 2021


Der Abschluss der Übernahme von Volterra durch F5 markiert den Beginn der nächsten Phase des Edge Computing und läutet die Edge 2.0- Ära ein. Wir gehen davon aus, dass im Zeitalter von Edge 2.0 digitale Unternehmen in allen Branchen Edge-Computing-Plattformen einsetzen werden, um Anwendungen bereitzustellen und Daten zu verarbeiten und zu analysieren. Die Edge-Plattform wird ein wesentlicher Bestandteil des Benutzererlebnisses bei allen digitalen Diensten sein.

In diesem Artikel erkläre ich die Entwicklung der Edge-Architektur und diskutiere die Technologievision von F5 für das Edge 2.0-Paradigma.

Kante 1.0

Edge-Technologien gibt es bereits seit vielen Jahren in embryonaler Form, allerdings mit einem anderen Schwerpunkt. Zu Beginn der Entstehung des Internets lag der Schwerpunkt auf statischen Inhalten und wurde als Content Delivery Network (CDN) bezeichnet. Tim Berners-Lee, der Erfinder des World Wide Web, sah die Überlastungsprobleme voraus, die durch die Übertragung großer Mengen von Webinhalten über langsame Links auf die Internetnutzer zukommen würden: Er nannte dieses Problem das „World Wide Wait“. Von dieser Herausforderung fasziniert, untersuchte MIT-Professor Tom Leighton das Problem mithilfe wissenschaftlicher Forschung. Gemeinsam mit seinem Schüler Danny Lewin gründete er im Jahr 1998 Akamai Technologies, das das Architekturparadigma des Content Delivery Network entwickelte.

Der Schwerpunkt des CDN-Paradigmas lag passenderweise auf der Verteilung der relativ statischen Webinhalte oder Webanwendungen, um sie näher an die Benutzer zu bringen und so dem Bedarf an Geschwindigkeit und Redundanz gerecht zu werden. Dieser Bedarf führte zu einer Reihe zentraler Architekturgrundsätze, darunter physischer Point of Presence (PoP) in der Nähe der Endbenutzer, Inhalts-Caching, Standortvorhersage, Vermeidung von Überlastungen, verteilte Routing-Algorithmen und mehr. Obwohl sich Netzwerke und Geräte geändert haben, dominieren diese Designprinzipien auch heute noch die grundlegenden CDN-Architekturen.

Kante 1.5

Inzwischen hat sich das Ökosystem der Internet-„Inhalte“ weiterentwickelt. Anwendungen sind zur primären Form von Inhalten im Internet geworden. Daher konnte der verteilte Rand nicht in seiner ursprünglichen Form bestehen bleiben: Er musste sich zusammen mit den von ihm bereitgestellten Anwendungsarchitekturen weiterentwickeln und stand gleichzeitig unter zunehmendem Druck, eine wachsende digitale Wirtschaft abzusichern. Da ein großer Teil der Weltwirtschaft heute in hohem Maße von handelsorientierten Anwendungen abhängt, wurden Sicherheitsdienste schnell zu einem unverzichtbaren Zusatzangebot für CDN-Anbieter, die durch ihre weltweite Präsenz näher am Benutzer sind – und so Bedrohungen früher beheben – als die Cloud und herkömmliche Rechenzentren. Diese Dienste wurden auf der Infrastruktur zur Verteilung von Inhalten aufgebaut und stellen daher geschlossene, proprietäre Umgebungen dar. Die von einem CDN-Anbieter angebotenen Dienste sind weder mit denen eines anderen kompatibel noch auf diese übertragbar.

Darüber hinaus gingen die grundlegenden Designprinzipien des ursprünglichen CDN-Architekturparadigmas – mit denen die ursprüngliche „World Wide Wait“-Herausforderung von Tim Berners-Lee im Internet gelöst werden sollte – davon aus, dass die beiden Endpunktsätze (die Benutzer und die Inhalte, auf die sie zugreifen) relativ passive Einheiten sind, und übertrugen die Lösung des Problems in erster Linie einer mittleren Ebene: in diesem Fall einem CDN. Die Entwicklung des Internet-Ökosystems, insbesondere die Umstellung auf containerbasierte Microservices-Anwendungen und intelligentes Endbenutzer-Computing, hat diese Annahme völlig widerlegt. Eine konzeptionelle Ansicht der architektonischen Sphäre von Edge 1.x finden Sie in Abbildung 1. Auf beide Faktoren gehen wir im nächsten Abschnitt genauer ein.

Abb. 1: Edge 1.x-Architektur-Lösungsbereich
Abb. 1: Edge 1.x-Architektur-Lösungsbereich

Katalysatoren der Edge-Evolution

Unternehmen müssen zwar noch immer statische Inhalte verteilen, erwarten jedoch, dass Edge in ihrer Anwendungsarchitektur eine wichtigere Rolle spielt. Aus der jüngsten von F5 durchgeführten Studie geht hervor, dass 76 % der befragten Unternehmen planen, Edge für verschiedene Anwendungsfälle zu nutzen, darunter zur Leistungssteigerung, zur Beschleunigung der Datenerfassung und -analyse, zur Unterstützung des IoT und zur Nutzung von Funktionen für die Echtzeit- oder nahezu Echtzeitverarbeitung. Dazu zählen auch 25 % der Unternehmen, die für die Dienste einer einfachen CDN-Funktion in ihrer Infrastruktur keine Rolle sehen. Diese Organisationen erstellen hochdynamische, global verteilte Anwendungen mit sicheren und optimalen Benutzererlebnissen. Sie erwarten von Edge die Präsenz und Flexibilität standortübergreifender Anwendungsdienste und die konsistenten Bausteine, die sie für einen erfolgreichen Einsatz benötigen.  

Heute sind wir der Ansicht, dass den Diensten von Edge-Anbietern mit CDN-zentrierter Architektur – beispielsweise Akamai, Fastly und Cloudflare – die grundlegenden Eigenschaften fehlen, die zur Bereitstellung dieser anwendungszentrierten Funktionen erforderlich sind. Bei verteilten Anwendungen auf Kubernetes-Basis beispielsweise kann die in einem Container verpackte Anwendungslogik dynamisch an jeden geeigneten Rechenstandort mit einem unterstützenden Kubernetes-Stack verschoben werden. Dies ist – zur Optimierung des Benutzererlebnisses – unabhängig davon möglich, ob es sich beim Rechenstandort um eine IaaS-Instanz aus einer öffentlichen Cloud, einen physischen Server im Besitz des Unternehmens oder eine virtuelle Maschine im PoP des Edge-Anbieters handelt. Daher sind Anwendungen nicht länger die „passiven“ Routingziele des Bereitstellungsnetzwerks, sondern aktive Teilnehmer der Edge-Lösung. Dies steht im direkten Gegensatz zu den Architekturprinzipien, auf denen die Edge-Lösungen dieser CDN-Anbieter basieren. Das heißt, ihre Edge-Lösungen stammen aus einer Zeit, als Inhalte (oder Anwendungen) statische Einheiten waren, die mit den physischen Standorten verknüpft waren. Sie gingen davon aus, dass nur das Content Delivery Network als „intelligente Plattform“ fungiert, um Benutzer mit Anwendungen zu verbinden, während die Anwendungen (und Benutzer) passive „Endpunkte“ der „intelligenten Plattform“ bleiben. Dieser Ansatz stellt nicht mehr die beste architektonische Möglichkeit dar, Benutzer mit Inhalten oder Anwendungen zu verbinden.

Es sind nicht nur Anwendungen. Auch die Benutzer haben sich weiterentwickelt. Nicht nur sind sie in puncto digitaler Raffinesse und Appetit auf digitales Engagement seit der Gründung von Akamai im Jahr 1998 um Lichtjahre voraus, die Technologie hat auch eine Änderung ihrer Definition erzwungen. Heutzutage kann ein „Benutzer“ durchaus eine Maschine, ein Skript oder ein automatisierter Dienst sein, der im Auftrag eines Menschen handelt. Es könnte sich dabei um einen Sensor handeln, der wichtige Daten aus einer Produktionsanlage oder einem landwirtschaftlichen Feld erfasst. Einerseits haben diese „Benutzer“ weiterhin die gleichen Wünsche ihrer menschlichen Gegenstücke nach Geschwindigkeit, Sicherheit und Privatsphäre. Andererseits beteiligen sich diese neuen „Benutzer“ – etwa intelligente IoT-Endpunkte mit eingebetteten Anwendungsstapeln – häufig an der dynamischen Verarbeitung der Anwendungslogik und Datenanalyse, um sichere und optimale digitale Benutzererlebnisse zu gewährleisten. Sie sind selbst zu Hosts bestimmter Anwendungsfunktionen geworden, um zur Optimierung digitaler Erlebnisse beizutragen. Wenn WebAssembly beispielsweise auf einem intelligenten Endbenutzergerät ausgeführt wird, ist es für den Endpunkt möglich geworden, umfassender an Anwendungssicherheitsfunktionen (z. B. Anwendungs-Firewall) oder Anwendungsdatenanalysen teilzunehmen.

Diese beiden großen Veränderungen auf Branchenebene – moderne, containerbasierte verteilte Anwendungen und intelligente Endpunkte – werden schnell zu einem Teil erweiterter Edge-Lösungen und ersetzen das alte Content Delivery Network. Die Architekturprinzipien von CDN- oder inhaltszentrierten Edge 1.x-Lösungen, die ursprünglich auf die Lösung der Herausforderungen bei der Inhaltsbereitstellung in einem Internet-Ökosystem aus der Zeit um das Jahr 2000 ausgerichtet waren, eignen sich nicht mehr zur Bewältigung der Herausforderungen global verteilter Anwendungen und digitaler Erlebnisse der Zukunft. Die Branche braucht ein neues Edge-Paradigma: ein Edge 2.0-Paradigma. Eine konzeptionelle Ansicht der Edge 2.0-Architektursphäre finden Sie in Abbildung 2.

Abb. 2: Edge 2.0-Architekturlösungsbereich
Abb. 2: Edge 2.0-Architekturlösungsbereich

Aus geschäftsorientierter Sicht möchten die heutigen IT- und Digitalunternehmensleiter in Unternehmen, dass die Verteilung und Sicherheit von Edge-Anwendungen zu einem integralen Bestandteil ihrer digitalen Pipeline und ihres Produktionsprozesses wird. Auf diese Weise können ihre Anwendungen nach dem Motto „einmal erstellen und überall auf der Welt bereitstellen“ und bieten so das gleiche nahtlose, sichere und optimierte Benutzererlebnis. Die CDN-zentrierten „Anwendungsdienste“ der bestehenden Edge-Anbieter – Akamai, Fastly und Cloudflare – erfordern von Unternehmen eine aufwändige Neustrukturierung ihrer Anwendungen und eine Nachrüstung mit dem Design, den Standorten, Diensten und Tools der CDN-zentrierten Edge-Anbieter. Die daraus resultierenden Anwendungsarchitekturen lassen sich nicht problemlos in die DevOps- und IT-Workflows des Unternehmens integrieren, die die Bereitstellung und den Betrieb seiner Workloads steuern. Daher stellen diese „Anwendungsdienste“, die auf geschlossenen CDN-zentrierten Systemen und Diensten basieren, ein weiteres betriebliches Hindernis für Unternehmen dar, die eine nahtlose Multi-Cloud-Lösung für eine ordnungsgemäße und effektive Anwendungsverteilung suchen.

Kante 2.0

Die zentralen Anwendungsherausforderungen, die Edge bewältigen sollte – Geschwindigkeit und dann Sicherheit – bestehen noch heute. Was sich geändert hat, ist die Definition von Anwendung (von einer statischen Instanz an einem festen Ort zu „beweglichen“ Containereinheiten), Benutzer (vom menschlichen Benutzer zu einem intelligenten „Ding“) und Standort (von einer IP-Adresse zu einer logischen Identifikation). Die durch COVID deutlich beschleunigte und alle Branchen erfassende Digitalisierung der Geschäftswelt führt zu einer neuen Klasse digitaler Erlebnisse, die allein durch die Verlagerung der Inhalte näher an den Benutzer nicht erreicht werden kann. Es erfordert ein neues Edge-Paradigma – eines, das sich auf eine ganzheitliche Anwendungsverteilung konzentriert und auf einem anderen Satz von Technologie-Designprinzipien basiert – das Edge 2.0-Paradigma.

Edge 2.0 wurde für moderne Nutzer und Anwendungen entwickelt. Wir nutzen Ressourcen aus öffentlichen Clouds, der privaten Cloud oder Rechenzentren unserer Kunden vor Ort sowie Bare-Metal-Systeme und intelligente Geräte an entfernten Standorten, um die elastische Präsenz auf Abruf virtuell zu erweitern. Wir integrieren moderne Entwicklungs- und Bereitstellungsmethoden, um ein nahtloses Anwendungslebenszyklus-Management zu ermöglichen und unterstützen DevOps durch globale Transparenz. Bei der Anwendungssicherheit verzichten wir auf traditionelle perimeterbasierte Verteidigungsansätze und integrieren Sicherheitsfunktionen direkt in die Edge-Plattform, ergänzt durch eingebaute Werkzeuge zum Schutz der Privatsphäre. Wir trennen den Ort der Datenverarbeitung und Analyse vom Ort der Anwendungslogik und sorgen dafür, dass alle Bereiche gemäß Unternehmensrichtlinien gesteuert werden. Edge 2.0 erkennt, wenn Workloads spezielle Verarbeitung erfordern, und weist sie gezielt spezialisierter Hardware zu, um optimale Effizienz zu erzielen. Dies alles steuern wir über eine einheitliche Steuerungsinstanz.

Der Die Edge 2.0-Plattform basiert auf den folgenden wichtigen Designprinzipien:

  • Einheitliche Steuerungsebene
    Edge kann jede Umgebung umfassen, einschließlich Benutzerendpunkte und öffentliche Clouds. Eine einheitliche Kontrollebene gewährleistet die gemeinsame Definition von Sicherheitsrichtlinien, Datenstandortrichtlinien und Benutzeridentitätsverwaltung in verschiedenen Umgebungen und erzwingt die Ausführung durch die Integration mit Automatisierungs- und Orchestrierungstools.

  • Anwendungsorientiert 
    Die Edge 2.0-Plattform integriert sich vollständig in Werkzeuge für das Anwendungslebenszyklus-Management. Sicherheitsrichtlinien für Anwendungen, Datenstandortrichtlinien, Identitätsverwaltung und Ressourcenorchestrierung deklarieren wir über die einheitliche Steuerungsebene und setzen sie in jeder Umgebung durch, in der die Plattform läuft. Die Edge wird zur „deklarativen Eigenschaft“ der Zielanwendung (dadurch hat jede Anwendung eine eigene „personalisierte“ Edge) und die Plattform setzt sie ohne manuelle Bereitstellung unmittelbar um. Sie können sich als Entwickler ganz auf die Anwendungslogik, Schnittstellen (APIs) und Geschäftsvorgänge konzentrieren, ohne Infrastruktur oder Standorte verwalten zu müssen.

  • Verteilte Sicherheit eingebettet in die Edge-Plattform
    In der Edge 2.0-Plattform werden Anwendungssicherheitsrichtlinien auf gemeinsame Weise über die einheitliche Steuerungsebene definiert. Sie werden zur Durchsetzung in jeder Umgebung verteilt, in der die Anwendung ausgeführt wird. Direkt in die Plattform eingebettete Sicherheitsfunktionen (z. B. Verschlüsselung, erstklassige BOT-Erkennung) ermöglichen die standardmäßige Integration dieser Sicherheitsfunktionen in die Anwendung.

  • Verteilte Datenverarbeitung und eingebettete Analytik
    Die Edge 2.0-Plattform wird zu einer globalen Struktur für Anwendungslogik und einer globalen Struktur für Datenverarbeitung und -analyse. Jeder digitale Dienst erfordert sowohl Daten als auch Anwendungslogik. Allerdings sollte es nicht erforderlich sein, dass der Speicherort für die Speicherung, Verarbeitung und Umwandlung der Daten derselbe ist, an dem sich die Anwendungslogik befindet. Der Datenspeicherort sollte unabhängig als eine Reihe von Richtlinien auf Plattformebene angegeben werden, die durch Faktoren wie Datengravitation, Vorschriften (PCI, DSGVO usw.) und das relative Preis-Leistungs-Verhältnis der Verarbeitung bestimmt werden. Ähnlich wie Sicherheitsrichtlinien sollten Richtlinien zum Datenstandort von den Benutzern über die einheitliche Steuerungsebene „deklariert“ und von der Plattform in jeder Umgebung durchgesetzt werden. Die Edge 2.0-Plattform spielt auch bei anderen Datenverwaltungsrichtlinien eine Rolle, beispielsweise bei der Datenherkunft – indem sie diese Datendetails als eingebettete Attribute speichert – und verfügt darüber hinaus über eine Reihe integrierter Betriebsfunktionen für Beobachtbarkeit, Telemetrie-Streaming, ML-Tools und ETL-Dienste.

  • Softwaredefinierter elastischer Edge
    In Edge 2.0 definiert sich „Edge“ nicht mehr über physische PoPs an festen Standorten. Wir definieren ihn dynamisch über die Edge 2.0 Steuerungsebene anhand von Ressourcen, die überall dort zur Verfügung stehen, wo Sie sie benötigen: in öffentlichen Clouds, Hypervisoren, Rechenzentren, privaten Clouds oder sogar auf physischen Maschinen an für Ihr Unternehmen einzigartigen „entlegenen“ Standorten. Auch die Netzwerkkonnektivität liefern wir softwaredefiniert, überlagert auf privater oder öffentlicher WAN-Infrastruktur – ohne enormen Aufwand für Zusammenstellung und Konfiguration. Auf Ihre Zielanwendung reagieren wir mit einer „Absichtserklärung“, indem wir auf deren Anforderung einen maßgeschneiderten, softwaredefinierten elastischen Edge bereitstellen. „Edge“ – und alles, was wir damit für Ihre Anwendung im Rahmen dieser Absicht erzeugen – wird so zu einer einfachen, bedienerfreundlichen Eigenschaft Ihrer Anwendung.

  • Hardwareoptimiertes Computing
    Die Fortschritte bei Prozessor- und Chipsatztechnologien – insbesondere bei GPUs, DPUs, TPUs und FPGAs, die immer leistungsfähiger und vielseitiger werden – ermöglichen es, spezialisierte Rechenleistung gezielt zur effizienten Nutzung von Ressourcen bei bestimmten Arbeitslasten einzusetzen. Eine Edge 2.0-Plattform wird mit Systemen zusammenarbeiten, die über diese spezialisierte Hardware verfügen, um genau auf bestimmte Anwendungs-Workloads zuzugreifen, sie zu starten und auszuführen und so gezielt von der Hardware zu profitieren. Beispielsweise wählen wir GPU-Ressourcen für AI/ML-intensive Aufgaben aus, konfigurieren sie und binden eine DPU für spezielle Sicherheits- und Netzwerkfunktionen ein, die eine Anwendung erfordert. Die hardwarebewusste Architektur von Edge 2.0 bietet faszinierende Vorteile bei der Entwicklung spezialisierter, anwendungsgesteuerter intelligenter „Industriesysteme“ und eröffnet grenzenlose Möglichkeiten für lokale IoT-Lösungen mit Echtzeitverarbeitung. Eine Ladestation für Elektrofahrzeuge kann so zum lokalen Datenaggregationspunkt für die umfangreichen Sensordaten der Fahrzeuge werden, oder ein autonomes Fahrzeug mit Android-Betriebssystem kann als mobiles Rechenzentrum agieren und kontinuierliche hardwaregestützte Selbstdiagnosen durchführen. Unsere Vision ist, dass die Edge 2.0-Plattform alle diese spezialisierten intelligenten Systeme unterstützt und die globalen digitalen Erfahrungen unserer Kunden verbessert und stetig weiterentwickelt.

Abschluss

Edge 2.0 wurde mit der Vision entwickelt, die Herausforderungen der verteilten Anwendungen von morgen unter Berücksichtigung nahtloser globaler digitaler Erlebnisse zu lösen. Wir schreiben nicht mehr das Jahr 1998. Das Internet-Ökosystem, das Cloud-Computing und die digitale Transformation haben sich mittlerweile deutlich weiter entwickelt als man es sich bei der ersten Konzeption des CDN-Architekturmodells vorstellen konnte. Mit der Erkenntnis, dass es sich nicht nur um eine Multi-Cloud-Welt, sondern auch um eine allgegenwärtige digitale Welt handelt, versucht das Edge 2.0-Paradigma, die Herausforderungen der Zukunft zu lösen, indem es die einschränkenden Annahmen der Vergangenheit über Bord wirft. Es verspricht echte Portabilität von Anwendungen in allen Umgebungen sowie die Bereitstellung der Dienste, die sie für einen erfolgreichen, sicheren, schnellen und nahtlosen Betrieb des Benutzers benötigen.

Durch die kürzlich erfolgte Übernahme von Volterra ist F5 in der perfekten Position, die Entwicklung dieses anwendungszentrierten Edge 2.0-Paradigmas anzuführen.