Eliminar las demoras en la entrega de aplicaciones con los servicios de aplicaciones nativas de contenedores

Los ciclos de vida de las aplicaciones en contenedores son dinámicos y transitorios, características que no van bien con las políticas tradicionales de redes y seguridad. F5 NGINX tiene una solución.

¿El reto? Soporte seguro aplicações contrainerizadas

El aprovechamiento de los contenedores le permite desarrollar aplicaciones nativas de la nube con una metodología de «escribir una vez, ejecutar en cualquier lugar». Sin embargo, para ello se necesita un contexto. Las aplicaciones en contenedores necesitan mecanismos de entrega de aplicaciones nativos para ofrecer un rendimiento óptimo. Aferrarse a la configuración tradicionalmente estática y gestionada por TI no es compatible con la agilidad que se necesita para seguir el ritmo de las subidas y bajadas de los contenedores de microservicios, que pueden darse de un momento a otro.

Esto es lo que puedes hacer

Cuando se utiliza una solución basada en microservicios, se necesitan soluciones de seguridad y rendimiento de aplicaciones que estén en línea con esa arquitectura dinámica. Debe poder gestionar los servicios de aplicaciones como código e integrarlos en el flujo de trabajo CI/CD. Necesita servicios de entrega de aplicaciones fiables que estén integrados con el plano de gestión de la plataforma de contenedores.

Cómo puede ayudar F5

Los servicios de entrega de aplicaciones F5 NGINX están diseñados y optimizados para entornos de contenedores, por lo que resultan una opción ideal para aprovechar plataformas de contenedores como Kubernetes y Red Hat OpenShift. Además, la estandarización de NGINX para entornos de contenedores y entornos de no contenedores reduce la complejidad y asegura mayor consistencia y fiabilidad.

Controlador de entrada de NGINX para Kubernetes

Como principal controlador de entrada para Kubernetes1, el Controlador de entrada NGINX proporciona configuración automatizada para los equilibradores de carga NGINX para garantizar que las aplicaciones en los clústeres de Kubernetes se entregan de forma fiable y segura sin comprometer el rendimiento.

NGINX OpenShift Router

Como principal controlador de entrada para Kubernetes1, el Controlador de entrada NGINX proporciona configuración automatizada para los equilibradores de carga NGINX para garantizar que las aplicaciones en los clústeres de Kubernetes se entregan de forma fiable y segura sin comprometer el rendimiento.

Guía de soluciones

RETO

Las organizaciones utilizan plataformas de contenedores como Kubernetes o RedHat OpenShift en combinación con metodologías de desarrollo ágiles para acelerar el desarrollo y la implementación de aplicaciones.

Los contenedores son componentes de infraestructura fundamentales para el desarrollo de aplicaciones nativas de la nube, ya que habilitan la flexibilidad y la portabilidad que permiten a los desarrolladores «escribir una vez, funcionar en cualquier lugar» Los contenedores reducen las dependencias y permiten el escalado a nivel de los componentes, lo que es clave para modernizar las aplicaciones utilizando microservicios.

Las aplicaciones en contenedores necesitan mecanismos nativos de entrega de aplicaciones para ofrecer un rendimiento óptimo. Los desarrolladores y los equipos de DevOps requieren una solución de entrega de aplicaciones ligera y agnóstica de nube para los entornos de Kubernetes y OpenShift.

Pero un enfoque tradicional con una configuración estática cambiada solo por TI entra en conflicto con el paradigma de los contenedores ágiles, en el que los nuevos contenedores de microservicios pueden crearse dinámicamente durante unos pocos minutos para dar servicio a un pico en la demanda o desplegar una actualización simplemente sustituyendo los contenedores antiguos por otros nuevos.

¿Cómo se asegura de que las implementaciones de sus servicios de aplicaciones se mantienen al día con los ciclos de liberación rápida en entornos de contenedores?Descargue la guía de soluciones para obtener todos los detalles .

Solución

Necesita servicios fiables de entrega de aplicaciones integrados en el plano de gestión de la plataforma de contenedores. La mejor manera de soportar sus aplicaciones en contenedores es con NGINX, la aplicación más utilizada en DockerHub, con más de 1000 millones de descargas.

Y con el 64% del mercado, NGINX es también, por lejos, el controlador de ingreso de Kubernetes más popular, según la Cloud Native Computing Foundation . NGINX también es compatible con entornos Red Hat OpenShift, una plataforma de aplicação de contenedores construida sobre Kubernetes. 

COMPONENTES

Para ofrecer servicios de aplicaciones multinube consistentes y potentes en entornos de contenedores, equilibre los siguientes componentes de NGINX.

  • Controlador de ingreso NGINX para Kubernetes
    DevOps puede proporcionar acceso externo a sus entornos Kubernetes utilizando el controlador de ingreso NGINX para Kubernetes. Esto proporciona servicios de entrega de nivel empresarial para aplicações de Kubernetes, incluidas métricas en tiempo real, persistencia de sesión, controles de estado activos y validación JWT.

    La versión NGINX Plus también permite a los usuarios ejecutar una reconfiguración sin interrupciones, lo que garantiza un rendimiento constante de la aplicação y el uso de recursos. Está construido y mantenido según un estándar de producción sostenible y ofrece consistencia y estabilidad, preservando la compatibilidad con versiones anteriores.

  • Enrutador NGINX Plus para OpenShift
    Para entornos OpenShift, NGINX admite totalmente las funciones definidas por el recurso Open Shift Router.

    El enrutador actúa como punto de entrada para todas las solicitudes externas que llegan a las aplicações que se ejecutan en OpenShift, lo que lo convierte en una de las partes más críticas de la plataforma. El enrutador NGINX está integrado en OpenShift a través del software Template Router, el mismo software que sustenta la implementación del enrutador predeterminado.

CONCLUSIÓN

No importa dónde se ejecuten, las aplicaciones pueden beneficiarse del rendimiento que ofrece NGINX.

Con las soluciones diseñadas para los entornos de Kubernetes y OpenShift, las aplicaciones que se ejecutan en plataformas de contenedores dinámicos pueden obtener los servicios que necesitan configurarse bajo demanda mediante herramientas nativas del sistema de gestión de contenedores.

Lea más sobre el futuro de la plataforma de aplicação NGINX y cómo F5 está ayudando a las empresas a evolucionar sus aplicaciones para la era digital.

Contenido relacionado
WEBINAR

NGINX Ingress Controller

Mire este seminario web para conocer los últimos desarrollos en NGINX Ingress Controller versión 1.5.0.

Ver el webinar ›

HISTORIA DE UN CLIENTE

Tecnologías LKQD y NGINX

LKQD Technologies reduce la complejidad operativa con el controlador de ingreso NGINX.

Leer su historia ›

BLOG

Microservicios

Encuentre las mejores estrategias de diseño de microservicios y descubra cómo puede empezar a reestructurar las aplicaciones monolíticas en microservicios.

Leer el blog ›

EBOOK

Red de contenedores

Obtenga esta guía para descubrir los modos de red Docker y saber cómo Kubernetes aborda la red de contenedores.

Obtener el eBook ›

EBOOK

DevOps nativos de la nube

Descargue el libro electrónico para saber cómo aplicar las prácticas de DevOps estándar del sector a Kubernetes en un contexto nativo de la nube.

Obtener el eBook ›

BLOG

Los contenedores son la clave de una estrategia multinube

No es una buena idea encasillar a los contenedores en un rol limitado que involucre solo microservicios, porque pueden hacer mucho más. 

Leer el blog ›

Guía de soluciones

Ofrezca un rendimiento óptimo para sus aplicaciones en contenedores

Las aplicações en contenedores necesitan una infraestructura de distribución de aplicação diseñada para contenedores.

Leer la guía ›