ANWENDUNGSFALL

Innovative Architekturen helfen Service-Providern bei der Skalierung für 5G

IN DIESEM ANWENDUNGSFALL ENTHALTEN

F5 BIG-IP

F5 BIG-IP Virtual Editions (VEs)

So erzielen Sie eine vorhersehbare Skalierung und Fehleranalyse in einer Hybrid-Umgebung

Die Virtualisierung ermöglicht es Service-Providern, das Versprechen von 5G zu erfüllen

Service-Provider befinden sich in einem Wettlauf um neue 5G-Dienste. Einige von ihnen haben bereits feste mobile Dienste und 5G-fähige Hotspots eingeführt und werden bald Edge Computing zur Unterstützung von autonomen Fahrzeugen, virtueller Realität, erweiterter Realität, künstlicher Intelligenz und mehr anbieten. Die neue Architektur, die für die Bereitstellung dieser neuen Dienste erforderlich ist, ist kostspielig und erfordert Investitionen in den Funkzugang, in Geräte für das Edge-Computing und in erweiterte Netzwerkfunktionen.

Viele Service-Provider setzen die Virtualisierung von Netzwerkfunktionen (NFV, Network Functions Virtualization) ein, um ihre 5G-Strategien umzusetzen. NFV hilft ihnen dabei, ihre Flexibilität und Agilität zu erhöhen, die Dienstgeschwindigkeit zu steigern, schneller zu skalieren, um den Anforderungen gerecht zu werden, und die Gesamtbetriebskosten zu senken. NFV entkoppelt Netzwerk-Hardware und -Software und ermöglicht so den Übergang von kostenintensiver, speziell entwickelter Hardware zu kostengünstigeren, kommerziellen, handelsüblichen (COTS-)Servern.

Herausforderungen bei der Skalierung virtualisierter Architekturen für 5G

NFV bietet zwar viele Vorteile, aber die Verteilung von Funktionen auf mehrere Server und Knoten führt häufig zu Herausforderungen bei der Skalierung. Die Weiterleitung des Datenverkehrs durch die Hypervisor-Schicht kann die Latenzzeit erhöhen und gleichzeitig den Netzwerkdurchsatz verringern, da die Service-Provider den Durchsatz für kritische 5G-Netzwerkfunktionen maximieren müssen, um die Dienstanforderungen zu erfüllen.

Das Hinzufügen weiterer Elemente und die Skalierung über Knoten hinweg (horizontale Skalierung) kann effizient sein. Eine weitere Herausforderung bei der Skalierung besteht jedoch darin, dass der Netzwerkverkehr zustandsbehaftet sein muss. Der Datenverkehr des Service-Providers erfordert in der Regel einen gewissen Zustandsgrad (z. B. Teilnehmerinformationen, die die Verwaltung von Richtlinien und die Abrechnung ermöglichen). Dies erschwert die horizontale Skalierung.

Die Konsolidierung von Rechenknoten liefert eine verbesserte Skalierung und Leistung des Netzwerks

Bei der Konsolidierung von Rechenknoten werden mehrere Funktionselemente (in der Regel virtuelle Maschinen) in einem gemeinsamen Rechenknoten zusammengeführt. Dadurch wird der Weg zwischen den Funktionen verkürzt, da der Datenverkehr des Netzwerks nicht über mehrere Hypervisors und Server laufen muss. Dieser Ansatz bietet eine Reihe von Vorteilen: er reduziert die Latenzzeit, ermöglicht einen höheren Durchsatz zwischen den Elementen und gewährleistet eine vorhersehbare Skalierung von Diensten. Wenn ein höherer Durchsatz erforderlich ist, werden zusätzliche Knoten hinzugefügt, bis die Netzwerkanforderungen erfüllt sind. Da jeder Knoten einen festen Satz von Diensten mit einem bekannten maximalen Leistungsniveau bereitstellt, ist es für den Anbieter einfach, die Anzahl der zusätzlichen Knoten zu bestimmen, die zur Erfüllung der neuen Anforderungen erforderlich sind. Dadurch wird die Leistung auf dem N6/SGi-LAN mit Evolved Packet Core Gateways und für Multi-Access Edge Computing (MEC)-Elemente, wo hohe Leistung erforderlich ist, optimiert.

Ein gängiges Konsolidierungsszenario für Rechenknoten legt Sicherheit, TCP-Optimierung und Richtliniendurchsetzung auf einen einzigen Rechenknoten oder eine virtuelle Maschine, die einen verbesserten Durchsatz bietet.

Die Konsolidierung von Rechenknoten vereinfacht die Durchsetzung von Richtlinien sowie die Abrechnung und liefert eine vorhersehbare Betriebs- und Skalierungsleistung.

Ein Hauptvorteil der Konsolidierung von Rechenknoten besteht darin, dass sie vorhersehbare Fehlerpfade für Dienste bietet. Wenn der Rechenknoten ausfällt, fällt er auf eine Weise aus, die vorhersehbar, verständlich und leicht zu identifizieren ist, da jeder Knoten einen identischen Satz von Diensten wie alle anderen Knoten desselben Typs ausführt. Dies vereinfacht die Fehleranalyse und beschleunigt die Systemwiederherstellung. Wenn außerdem die Dienste auf einem Colocation-Knoten gut konzipiert sind, löst der Ausfall eines beliebigen Elements einen Ausfall des Knotens aus. Dadurch wird verhindert, dass Elemente auf einem einzelnen Knoten Datenverkehr zwischen den Knoten senden, was den Durchsatz und die Vorhersagbarkeit der Leistung verringern würde.

Maximierung des Netzwerkdurchsatzes auf COTS-Servern mit Single Root I/O Virtualization (SR-IOV) und Intel Quick Assist Technology (QAT)

In bestimmten Fällen kann ein vollständig virtualisierter, reiner Software-Ansatz einfach keine ausreichende Verarbeitungsleistung bieten. Es gibt jedoch mehrere hardwaregestützte Möglichkeiten, die Leistung der Rechenknoten für einen bestimmten Zweck zu erhöhen. Single Root Input/Output Virtualization (SR-IOV) stellt ein Modell dar, das die Isolierung der PCI-Express-Ressourcen ermöglicht, um die Leistung zu verbessern. Eine einzelne physische PCI-Express-Funktion oder ein einzelnes PCI-Express-Gerät kann in einer virtuellen Umgebung mithilfe der SR-IOV-Spezifikation gemeinsam genutzt werden. Dieser direkte Hardware-Zugriff von einem Compute-Gast aus verbessert die Leistung erheblich, insbesondere für Netzwerkschnittstellen, indem die Anzahl an Datenkopien, die durch die Hypervisor-Schicht laufen, reduziert werden. F5 bietet optimierte Treiber, die SR-IOV für leistungsstarke Intel- und Mellanox-NICs (einschließlich 100G-NICs) nutzen und einen Durchsatz mit höchsten Leitungsgeschwindigkeiten ermöglichen.

Darüber hinaus verfügen Anbieter von Rechenkapazitäten über zusätzliche Chips und Karten für Funktionen, die durch spezialisierte Computereinrichtungen beschleunigt werden können. Ein hervorragendes Beispiel dafür ist Intels Quick Assist Technology (QAT), die spezielle Hardware im PCH-Chipsatz bereitstellt. Die QAT-Hardware von Intel führt die Kryptoverarbeitung und -komprimierung durch und reduziert gleichzeitig die Belastung der Host-CPU. Zusammen verbessern diese die TLS-Leistung, insbesondere während der TLS-Einrichtung

Eine weitere Möglichkeit, die Leistung zu erhöhen, besteht darin, Verarbeitungsfunktionen auf SmartNICs auszulagern. SmartNIC ist eine Netzwerkschnittstelle, die außerdem ein Field Programmable Gate Array (FPGA) enthält, d. h. ein programmierbares Subsystem. Obwohl die Verarbeitungs- und Speichereinrichtungen für dieses Subsystem stärker eingeschränkt sind als die des allgemeinen Rechenknotens, können sie so programmiert werden, dass sie einfachere Funktionen bei viel höherer Leistung verarbeiten können. Zum Beispiel können Sicherheits-ACLs auf Schicht 3/Schicht 4 auf sehr vorteilhafte Weise von SmartNIC-FPGAs verarbeitet werden. F5 plant, in der Zukunft eine Unterstützung für die SmartNIC-Beschleunigung einzuführen und dabei unsere IP für die Hardware-Entlastung und -Beschleunigung zu nutzen.

Bereitstellung von 5G

F5 verfügt über das Fachwissen in Sachen Hardware und Software, um Service-Provider bei der effizienten Skalierung ihrer Netzwerke zu unterstützen, damit diese die Anforderungen von 5G erfüllen können. Unsere Technik- und Servicebereitstellungs-Teams arbeiten seit Jahren mit Service-Providern zusammen und helfen ihnen, Lösungen mit hohem Durchsatz, hoher Bandbreite und niedriger Latenz sowie die beste 5G-Sicherheitshardware und -software ihrer Klasse zu liefern. Unsere erfahrenen Ingenieure und Vertriebsexperten arbeiten mit Ihren Technologieteams zusammen, um Lösungen für Ihre spezifischen Netzwerk- und Marktanforderungen zu entwickeln.

Für weitere Informationen besuchen Sie: https://www.f5.com/de_de/5G

Um mehr über die Skalierung der virtuellen Infrastruktur zu erfahren, schauen Sie sich das Webinar an: https://interact.f5.com/5gwebinar-amer-5g_lp1.html