Containerisierte Anwendungslebenszyklen sind dynamische und vergängliche Merkmale, die sich nicht gut mit traditionellen Netzwerk- und Sicherheitsrichtlinien kombinieren lassen. F5 NGINX hat eine Lösung.
Durch die Nutzung von Containern können Sie cloudbasierte Anwendungen mit der Methode „Einmal schreiben, überall laufen lassen“ entwickeln. Das geschieht aber nicht in einem Vakuum. Containerisierte Anwendungen benötigen native Anwendungsbereitstellungsmechanismen, um eine optimale Leistung zu erzielen. Das Festhalten an der traditionell statischen, IT-verwalteten Konfiguration steht im Widerspruch zu der Agilität, die Sie benötigen, um mit dem Auf und Ab von Mikrodienst-Containern Schritt zu halten, das im Minutentakt geschehen kann.
Wenn Sie eine auf Mikrodiensten basierende Lösung einsetzen, benötigen Sie Lösungen für die Sicherheit und Leistung von Anwendungen, die auf diese dynamische Architektur abgestimmt sind. Sie sollten in der Lage sein, Ihre Anwendungsdienste als Code zu verwalten und in den CI/CD-Workflow zu integrieren. Sie benötigen zuverlässige Anwendungsbereitstellungsdienste, die in die Verwaltungsebene der Containerplattform integriert sind.
Die NGINX-Dienste von F5 zur Anwendungsbereitstellung sind für Containerumgebungen konzipiert und optimiert und damit die ideale Wahl für die Nutzung von Containerplattformen wie Kubernetes und Red Hat OpenShift. Außerdem wird durch die Vereinheitlichung auf NGINX sowohl für Container- als auch für Nicht-Container-Umgebungen die Komplexität reduziert und eine größere Konsistenz und Zuverlässigkeit gewährleistet.
Als oberste Ingress-Kontrolle für Kubernetes1 bietet der NGINX Ingress Controller eine automatisierte Konfiguration für NGINX Load Balancer, um sicherzustellen, dass Anwendungen in Kubernetes-Clustern zuverlässig und sicher ohne Leistungseinbußen bereitgestellt werden.
NGINX OpenShift Router bietet erweiterte Datenverkehrsverwaltungs- und Sicherheitsdienste für Red Hat OpenShift, die die Leistung, Belastbarkeit und Zuverlässigkeit Ihrer Anwendung verbessern.
In der obigen Architektur zeigen wir, wie der NGINX Ingress Controller unternehmensweite Anwendungsbereitstellungsdienste für containerisierte Anwendungen bereitstellt.
Organizations use container platforms such as Kubernetes or RedHat OpenShift in combination with agile development methodologies to speed up application development and deployment.
Containers are foundational infrastructure components for developing cloud-native applications as they enable flexibility and portability that allow developers to “write once, run anywhere.” Containers reduce dependencies and allow component-level scaling, which is key to modernizing applications using microservices.
Your containerized apps need native application delivery mechanisms to deliver optimal performance. Developers and DevOps teams need a cloud-agnostic lightweight application delivery solution for Kubernetes and OpenShift environments.
But a traditional approach with a static configuration changed only by IT conflicts with the agile container paradigm where new microservice containers might be created dynamically for just a few minutes to service a spike in demand or roll out an upgrade by simply replacing old containers with new ones.
How do you ensure that your app services deployments keep up with your rapid release cycles in containerized environments?
You need reliable application delivery services integrated with the container platform management plane. You can best support your containerized apps with NGINX, the most widely pulled and starred application on DockerHub, with more than 1 billion downloads.
And with 64% of the market, NGINX is also by far the most popular Kubernetes Ingress Controller, according to the Cloud Native Computing Foundation. NGINX also supports Red Hat OpenShift environments, a container application platform built on top of Kubernetes.
To deliver consistent and powerful multi-cloud application services in containerized environments, leverage the following NGINX components.
NGINX Ingress Controller for Kubernetes
DevOps can provide external access to their Kubernetes environments using the NGINX Ingress Controller for Kubernetes. This provides enterprise‑grade delivery services for Kubernetes applications including real-time metrics, session persistence, active health checks, and JWT validation.
The NGINX Plus version also empowers users to execute non-disruptive reconfiguration, which ensures consistent application performance and resource usage. It’s built and maintained to a supportable production standard, and it delivers consistency and stability—preserving backwards compatibility.
NGINX Plus Router for OpenShift
For OpenShift environments, NGINX fully supports features defined by the Open Shift Router resource.
The Router acts as the entry point for all external requests coming to applications running on OpenShift, which makes it one of the most critical parts of the platform. NGINX Router is integrated in OpenShift through the Template Router software—the same software that underpins the default Router implementation.
No matter where they run, applications can benefit from the performance that NGINX offers.
With solutions designed for Kubernetes and OpenShift environments, applications running in dynamic container platforms can get the services they need configured on demand—by tools native to the container management system.
Read more about the future of the NGINX Application Platform and how F5 is helping businesses evolve their apps for the digital age.
Finden Sie die besten Strategien für die Gestaltung von Mikrodiensten und lernen Sie, wie Sie mit der Umwandlung von monolithischen Anwendungen in Mikrodienste beginnen können.
Holen Sie sich diesen Leitfaden, um die Docker-Netzwerkmodi zu erkunden und zu erfahren, wie Kubernetes an die Vernetzung von Containern herangeht.
Laden Sie das E-Book herunter, um zu erfahren, wie bewährte DevOps-Praktiken in einem cloudnativen Kontext auf Kubernetes angewendet werden.