Laut Forrester implementieren 50 % der Unternehmen DevOps-Praktiken, um die Markteinführungszeit zu verkürzen (hohe Funktionsgeschwindigkeit) und die Stabilität zu verbessern (geringere Ausfallhäufigkeit und schnellere Problemlösung).
Parallel zum Wachstum von DevOps-Praktiken modernisieren Unternehmen Apps mithilfe von Microservices- Architekturen, bei denen verschiedene Applications in diskrete, gebündelte Dienste aufgeteilt werden. Fast 10 % der Apps werden völlig neu als Microservices erstellt, während weitere 25 % Applications sind (monolithisch mit angehängten Microservices, manchmal auch als „Miniservices“ bezeichnet).
Der Übergang zu DevOps-Prinzipien und die Einführung von Microservices-Architekturen haben tiefgreifende Auswirkungen auf alle Aspekte der Application und Infrastruktur.
Diese Trends verändern die Art und Weise, wie wir über Applications denken und sie entwickeln.
Die Kontrolle verlagert sich von den Infrastrukturteams auf die Application . Um eine schnelle Markteinführung zu erreichen, möchte DevOps die Kontrolle über die Infrastruktur haben, die die von ihnen entwickelten und gewarteten Apps unterstützt.
DevOps beschleunigt die Bereitstellungszeit. Moderne App-Infrastrukturen müssen um ein Vielfaches schneller automatisiert und bereitgestellt werden – andernfalls besteht die Gefahr, dass sich die Implementierung wichtiger Fehlerbehebungen und Verbesserungen verzögert.
Die Infrastruktur entkoppelt Software von der Hardware. Softwaredefinierte Infrastruktur, Infrastruktur als Code und zusammensetzbare Infrastruktur beschreiben allesamt neue Bereitstellungsarchitekturen, bei denen programmierbare Software auf Standardhardware oder öffentlichen Cloud-Computing-Ressourcen ausgeführt wird.
Während DevOps und Microservices alle Aspekte der Anwendungsinfrastruktur beeinflussen, verändern sie insbesondere die Art und Weise, wie Unternehmen Load Balancer-Technologie einsetzen, da der Load Balancer der intelligente Kontrollpunkt ist, der sich vor all Ihren Apps befindet.
Allerdings müssen verschiedene Teams in Ihrer Organisation auf unterschiedliche Weise auf die Lastausgleichstechnologie zugreifen.
Unternehmen nutzen einen zentralen Load Balancer mit erweiterten Funktionen, um den gesamten Application zu verwalten und so den Bereitstellungsdurchsatz und die Stabilität zu verbessern. Das F5-Gerät direkt vor Ihrer Umgebung übernimmt die Schwerstarbeit – es bietet erweiterte Application wie lokales und globales Verkehrsmanagement, DNS-Management, Bot-Schutz, DDoS-Minderung, SSL-Offload sowie Identitäts- und Zugriffsverwaltung.
DevOps-Teams müssen häufig Änderungen am Load Balancer implementieren, um neue Apps einzuführen, vorhandenen Apps neue Funktionen hinzuzufügen oder die Skalierung zu verbessern. Bei herkömmlichen Prozessen muss sich DevOps auf Infrastruktur- und Betriebsteams (I&O) verlassen, um die Konfiguration des Load Balancers zu ändern und ihn in der Produktion erneut bereitzustellen.
I&O-Teams gehen normalerweise vorsichtig vor, da sie Hunderte oder möglicherweise Tausende von Applications mithilfe eines zentralen Lastenausgleichs unterstützen müssen. Jeder Fehler könnte katastrophale Auswirkungen auf die Leistung und Sicherheit der gesamten App-Landschaft des Unternehmens haben. Daher nimmt das I&O-Team Änderungen zunächst in Testumgebungen vor und führt diese anschließend in der Produktion ein. Diese Betriebsverfahren tragen zwar dazu bei, dass sich Änderungen nicht negativ auf Ihr Application auswirken, ihre Einhaltung kann jedoch das Entwicklungs- und Innovationstempo verlangsamen.
Sie können die Geschwindigkeit der Softwarebereitstellung und die Betriebsleistung verbessern, indem Sie leichte, flexible Lastenausgleichsmodule einsetzen, die sich problemlos in Ihren Application näher an Ihren Apps integrieren lassen.
Die Cloud-native ADC-Lösung von F5, NGINX, ist ein Software-Load Balancer, der Ihnen helfen kann, die Kluft zwischen DevOps und NetOps zu überbrücken.
Es gibt drei gängige Bereitstellungsmodelle für die Erweiterung Ihrer F5 BIG-IP-Infrastruktur mit NGINX:
Da der programmierbare NGINX-Load Balancer leichtgewichtig ist, verbraucht er nur sehr wenige Rechenressourcen und belastet Ihre Infrastruktur kaum bis gar nicht zusätzlich.
Durch die Schichtung Ihrer F5- und NGINX-Load Balancer können Sie die Markteinführungsgeschwindigkeit steigern, ohne dabei Abstriche bei der Sicherheit oder Zuverlässigkeit zu machen.
Mit diesem Ansatz können I&O-Teams die Front-End-Infrastruktur von F5 beibehalten, um erweiterte Application für die große Anzahl unternehmenskritischer Apps bereitzustellen, die geschützt und skaliert werden müssen. Gleichzeitig ermöglichen Sie Ihren DevOps- und Application , Konfigurationsänderungen am Software-Load Balancer direkt zu verwalten und diese häufig als Teil eines CI/CD-Frameworks zu automatisieren.
Mit der kombinierten Lösung erreichen Sie die Agilität und Markteinführungszeitvorteile, die Ihre App-Teams brauchen – ohne auf die Zuverlässigkeit und Sicherheitskontrollen zu verzichten, die Ihre Netzwerkteams benötigen.
Lesen Sie mehr darüber, wie NGINX Load Balancer die App-Leistung verbessern können