Las organizaciones utilizan plataformas de contenedores como Kubernetes o RedHat OpenShift en combinación con metodologías de desarrollo ágiles para acelerar el desarrollo y la implementación de aplicaciones.
Los contenedores son componentes de infraestructura fundamentales para el desarrollo de aplicaciones nativas de la nube, ya que habilitan la flexibilidad y la portabilidad que permiten a los desarrolladores «escribir una vez, funcionar en cualquier lugar» Los contenedores reducen las dependencias y permiten el escalado a nivel de los componentes, lo que es clave para modernizar las aplicaciones utilizando microservicios.
Las aplicaciones en contenedores necesitan mecanismos nativos de entrega de aplicaciones para ofrecer un rendimiento óptimo. Los desarrolladores y los equipos de DevOps requieren una solución de entrega de aplicaciones ligera y agnóstica de nube para los entornos de Kubernetes y OpenShift.
Pero un enfoque tradicional con una configuración estática cambiada solo por TI entra en conflicto con el paradigma de los contenedores ágiles, en el que los nuevos contenedores de microservicios pueden crearse dinámicamente durante unos pocos minutos para dar servicio a un pico en la demanda o desplegar una actualización simplemente sustituyendo los contenedores antiguos por otros nuevos.
¿Cómo se asegura de que las implementaciones de sus servicios de aplicaciones se mantienen al día con los ciclos de liberación rápida en entornos de contenedores?
Necesita servicios fiables de entrega de aplicaciones integrados en el plano de gestión de la plataforma de contenedores. La mejor manera de soportar sus aplicaciones en contenedores es con NGINX, la aplicación más utilizada en DockerHub, con más de 1000 millones de descargas.
Y con el 64 % del mercado, NGINX es también, con mucho, el controlador de ingreso más popular de Kubernetes, según la Cloud Native Computing Foundation. Además, NGINX es compatible con los entornos OpenShift de Red Hat, una plataforma de aplicación de contenedores construida sobre Kubernetes.
Para ofrecer servicios de aplicaciones multinube consistentes y potentes en entornos de contenedores, equilibre los siguientes componentes de NGINX.
Controlador de ingreso NGINX para Kubernetes
Los DevOps pueden proporcionar acceso externo a sus entornos de Kubernetes usando el controlador de ingreso NGINX para Kubernetes. Esto proporciona servicios de entrega de nivel empresarial para las aplicaciones de Kubernetes, incluidas métricas en tiempo real, persistencia de la sesión, comprobaciones de estado activas y validación de JWT.
La versión NGINX Plus también permite a los usuarios ejecutar una reconfiguración no disruptiva, lo que asegura un rendimiento consistente de la aplicación y el uso de recursos. Está construida y mantenida según un estándar de producción compatible y ofrece consistencia y estabilidad, manteniendo la compatibilidad con las versiones anteriores.
Router NGINX Plus para OpenShift
Para los entornos OpenShift, NGINX soporta completamente las características definidas por el recurso Open Shift Router.
El router actúa como punto de entrada de todas las solicitudes externas que llegan a las aplicaciones que se ejecutan en OpenShift, lo que lo convierte en una de las partes más importantes de la plataforma. El router NGINX se integra en OpenShift a través del software Template Router, el mismo que sustenta la implementación predeterminada del router.
No importa dónde se ejecuten, las aplicaciones pueden beneficiarse del rendimiento que ofrece NGINX.
Con las soluciones diseñadas para los entornos de Kubernetes y OpenShift, las aplicaciones que se ejecutan en plataformas de contenedores dinámicos pueden obtener los servicios que necesitan configurarse bajo demanda mediante herramientas nativas del sistema de gestión de contenedores.
Lea más sobre el futuro de la plataforma de aplicaciones NGINX y la forma en que F5 está ayudando a las empresas a desarrollar sus aplicaciones para la era digital.