Los ciclos de vida de las aplicaciones en contenedores son dinámicos y transitorios, características que no van bien con las políticas tradicionales de redes y seguridad. F5 NGINX tiene una solución.
El aprovechamiento de los contenedores le permite desarrollar aplicaciones nativas de la nube con una metodología de «escribir una vez, ejecutar en cualquier lugar». Sin embargo, para ello se necesita un contexto. Las aplicaciones en contenedores necesitan mecanismos de entrega de aplicaciones nativos para ofrecer un rendimiento óptimo. Aferrarse a la configuración tradicionalmente estática y gestionada por TI no es compatible con la agilidad que se necesita para seguir el ritmo de las subidas y bajadas de los contenedores de microservicios, que pueden darse de un momento a otro.
Cuando se utiliza una solución basada en microservicios, se necesitan soluciones de seguridad y rendimiento de aplicaciones que estén en línea con esa arquitectura dinámica. Debe poder gestionar los servicios de aplicaciones como código e integrarlos en el flujo de trabajo CI/CD. Necesita servicios de entrega de aplicaciones fiables que estén integrados con el plano de gestión de la plataforma de contenedores.
Los servicios de entrega de aplicaciones F5 NGINX están diseñados y optimizados para entornos de contenedores, por lo que resultan una opción ideal para aprovechar plataformas de contenedores como Kubernetes y Red Hat OpenShift. Además, la estandarización de NGINX para entornos de contenedores y entornos de no contenedores reduce la complejidad y asegura mayor consistencia y fiabilidad.
Como principal controlador de entrada para Kubernetes1, el Controlador de entrada NGINX proporciona configuración automatizada para los equilibradores de carga NGINX para garantizar que las aplicaciones en los clústeres de Kubernetes se entregan de forma fiable y segura sin comprometer el rendimiento.
NGINX OpenShift Router proporciona servicios avanzados de gestión de tráfico y seguridad para Red Hat OpenShift que mejoran el rendimiento, la resiliencia y la fiabilidad de sus aplicaciones.
En la arquitectura anterior, demostramos cómo el Controlador de entrada NGINX proporciona servicios de entrega de aplicaciones de nivel empresarial para aplicaciones en contenedores.
Las organizaciones utilizan plataformas de contenedores como Kubernetes o RedHat OpenShift en combinación con metodologías de desarrollo ágiles para acelerar el desarrollo y la implementación de aplicaciones.
Los contenedores son componentes de infraestructura fundamentales para el desarrollo de aplicaciones nativas de la nube, ya que habilitan la flexibilidad y la portabilidad que permiten a los desarrolladores «escribir una vez, funcionar en cualquier lugar» Los contenedores reducen las dependencias y permiten el escalado a nivel de los componentes, lo que es clave para modernizar las aplicaciones utilizando microservicios.
Las aplicaciones en contenedores necesitan mecanismos nativos de entrega de aplicaciones para ofrecer un rendimiento óptimo. Los desarrolladores y los equipos de DevOps requieren una solución de entrega de aplicaciones ligera y agnóstica de nube para los entornos de Kubernetes y OpenShift.
Pero un enfoque tradicional con una configuración estática cambiada solo por TI entra en conflicto con el paradigma de los contenedores ágiles, en el que los nuevos contenedores de microservicios pueden crearse dinámicamente durante unos pocos minutos para dar servicio a un pico en la demanda o desplegar una actualización simplemente sustituyendo los contenedores antiguos por otros nuevos.
¿Cómo se asegura de que las implementaciones de sus servicios de aplicaciones se mantienen al día con los ciclos de liberación rápida en entornos de contenedores?
Necesita servicios fiables de entrega de aplicaciones integrados en el plano de gestión de la plataforma de contenedores. La mejor manera de soportar sus aplicaciones en contenedores es con NGINX, la aplicación más utilizada en DockerHub, con más de 1000 millones de descargas.
Y con el 64 % del mercado, NGINX es también, con mucho, el controlador de ingreso más popular de Kubernetes, según la Cloud Native Computing Foundation. Además, NGINX es compatible con los entornos OpenShift de Red Hat, una plataforma de aplicación de contenedores construida sobre Kubernetes.
Para ofrecer servicios de aplicaciones multinube consistentes y potentes en entornos de contenedores, equilibre los siguientes componentes de NGINX.
Controlador de ingreso NGINX para Kubernetes
Los DevOps pueden proporcionar acceso externo a sus entornos de Kubernetes usando el controlador de ingreso NGINX para Kubernetes. Esto proporciona servicios de entrega de nivel empresarial para las aplicaciones de Kubernetes, incluidas métricas en tiempo real, persistencia de la sesión, comprobaciones de estado activas y validación de JWT.
La versión NGINX Plus también permite a los usuarios ejecutar una reconfiguración no disruptiva, lo que asegura un rendimiento consistente de la aplicación y el uso de recursos. Está construida y mantenida según un estándar de producción compatible y ofrece consistencia y estabilidad, manteniendo la compatibilidad con las versiones anteriores.
Router NGINX Plus para OpenShift
Para los entornos OpenShift, NGINX soporta completamente las características definidas por el recurso Open Shift Router.
El router actúa como punto de entrada de todas las solicitudes externas que llegan a las aplicaciones que se ejecutan en OpenShift, lo que lo convierte en una de las partes más importantes de la plataforma. El router NGINX se integra en OpenShift a través del software Template Router, el mismo que sustenta la implementación predeterminada del router.
No importa dónde se ejecuten, las aplicaciones pueden beneficiarse del rendimiento que ofrece NGINX.
Con las soluciones diseñadas para los entornos de Kubernetes y OpenShift, las aplicaciones que se ejecutan en plataformas de contenedores dinámicos pueden obtener los servicios que necesitan configurarse bajo demanda mediante herramientas nativas del sistema de gestión de contenedores.
Lea más sobre el futuro de la plataforma de aplicaciones NGINX y la forma en que F5 está ayudando a las empresas a desarrollar sus aplicaciones para la era digital.
Encuentre las mejores estrategias de diseño de microservicios y descubra cómo puede empezar a reestructurar las aplicaciones monolíticas en microservicios.
Obtenga esta guía para descubrir los modos de red Docker y saber cómo Kubernetes aborda la red de contenedores.
Descargue el libro electrónico para saber cómo aplicar las prácticas de DevOps estándar del sector a Kubernetes en un contexto nativo de la nube.