Éliminez les ralentissements dans la fourniture des applications grâce à des services d'applications natives des conteneurs

Les cycles de vie des applications conteneurisées sont des caractéristiques dynamiques et transitoires qui ne se marient pas bien avec les politiques traditionnelles de réseau et de sécurité. F5 NGINX a une solution.


LE DÉFI : PRENDRE EN CHARGE LES APPLICATIONS CONTENEURISÉES EN TOUTE SÉCURITÉ

L'utilisation de conteneurs vous permet de développer des applications natives du cloud avec une méthodologie « écrire une fois, exécuter partout ». Mais cela ne se produit pas en vase clos. Les applications conteneurisées ont besoin de mécanismes de fourniture d'applications natives pour offrir des performances optimales. S'en tenir à la configuration traditionnellement statique et gérée par l'informatique est en contradiction avec l'agilité dont vous avez besoin pour suivre le va-et-vient des conteneurs de microservices qui peut se produire minute par minute.

VOICI CE QUE VOUS POUVEZ FAIRE

Lorsque vous utilisez une solution basée sur des microservices, vous avez besoin de solutions de sécurité et de performance des applications qui soient alignées sur cette architecture dynamique. Vous devez pouvoir gérer vos services applicatifs sous forme de code et les intégrer dans le flux de travail CI/CD. Vous avez besoin de services de fourniture d'applications fiables intégrés au plan de gestion de la plate-forme de conteneurs.

Webinaire

Découvrez les nouveautés de NGINX Ingress Controller pour Kubernetes Release 1.5.0


COMMENT F5 PEUT VOUS AIDER

Les services de fourniture d'applications F5 NGINX sont conçus et optimisés pour les environnements de conteneurs, ce qui en fait un choix idéal pour exploiter des plates-formes de conteneurs comme Kubernetes et Red Hat OpenShift. De plus, la normalisation sur NGINX pour les environnements avec et sans conteneurs réduit la complexité et assure une plus grande cohérence et fiabilité.

 

NGINX Kubernetes Ingress Controller

NGINX Ingress Controller, qui est le meilleur contrôleur d'entrée pour Kubernetes1, permet une configuration automatisée des équilibreurs de charge NGINX afin de garantir que les applications dans les clusters de Kubernetes sont fournies de manière fiable et sûre sans compromettre les performances.

NGINX OpenShift Router

NGINX OpenShift Router fournit des services avancés de gestion du trafic et de sécurité pour Red Hat OpenShift qui améliorent les performances, la résilience et la fiabilité de votre application.

Dans l'architecture ci-dessus, nous démontrons comment NGINX Ingress Controller offre des services de fourniture d'applications d'entreprise pour les applications conteneurisées.


Guide de solution

DÉFI

Les entreprises utilisent des plateformes de conteneurs comme Kubernetes ou RedHat OpenShift en combinaison avec des méthodologies de développement agiles pour accélérer le développement et le déploiement d'applications.

Les conteneurs sont des éléments d'infrastructure fondamentaux pour le développement d'applications natives du cloud, car ils offrent une flexibilité et une portabilité qui permettent aux développeurs « d'écrire une fois pour une exécution partout ». Les conteneurs réduisent les dépendances et permettent une mise à l'échelle au niveau des composants, ce qui est essentiel pour moderniser les applications utilisant des microservices.

Vos applications conteneurisées ont besoin de mécanismes de livraison d'applications natifs pour offrir des performances optimales. Les développeurs et les équipes DevOps ont besoin d'une solution de fourniture d'applications légère et apte au cloud pour les environnements Kubernetes et OpenShift.

Mais une approche traditionnelle avec une configuration statique modifiée uniquement par des services informatiques entre en conflit avec le paradigme des conteneurs agiles où des nouveaux conteneurs microservices peuvent être créés dynamiquement pendant quelques minutes seulement. Ceci pour répondre à un pic de demande ou déployer une mise à niveau en remplaçant simplement les anciens conteneurs par de nouveaux.

Comment vous assurer que vos déploiements de services applicatifs suivent vos cycles de déploiement rapide dans les environnements conteneurisés ?

CONTENU CONNEXE
Téléchargez le guide de la solution pour obtenir tous les détails
Obtenir le guide ›

SOLUTION

Il vous faut des services de fourniture d'applications fiables intégrés au plan de gestion de la plateforme de conteneurs. Vous pouvez soutenir au mieux vos applications conteneurisées grâce à NGINX, l'application plébiscitée et la mieux notée sur DockerHub, avec plus d'un milliard de téléchargements.

Et avec 64 % du marché, NGINX est aussi de loin le contrôleur d'entrée Kubernetes le plus populaire, selon la Cloud Native Computing Foundation. NGINX supporte aussi les environnements Red Hat OpenShift, une plateforme d'application de conteneurs construite sur une base Kubernetes.

CONTENU CONNEXE
Les conteneurs sont la clé d'une stratégie multicloud
Lire le blog ›

COMPOSANTS

Pour fournir des services d'application multi-cloud cohérents et puissants dans des environnements conteneurisés, utilisez les composants NGINX suivants. 

NGINX Ingress Controller pour Kubernetes >

NGINX Ingress Controller pour Kubernetes

Les DevOps peuvent fournir un accès externe à ses environnements Kubernetes à l'aide de NGINX Ingress Controller pour Kubernetes. Il offre des services de fourniture de niveau entreprise pour les applications Kubernetes, notamment des mesures en temps réel, la persistance des sessions, des contrôles de santé actifs et la validation JWT.

La version NGINX Plus permet aussi aux utilisateurs d'exécuter une reconfiguration sans interruption, ce qui garantit des performances applicatives et une utilisation des ressources cohérentes. Il est construit et entretenu selon une norme de production supportable, et il offre une cohérence et une stabilité qui préserve la rétrocompatibilité. 

NGINX Plus Router pour OpenShift >

NGINX Plus Router pour OpenShift

Pour les environnements OpenShift, NGINX supporte entièrement les fonctionnalités définies par la ressource Open Shift Router.

Le routeur sert de point d'entrée pour toutes les requêtes externes provenant des applications fonctionnant sur OpenShift, ce qui en fait l'une des parties les plus critiques de la plateforme. NGINX Router est intégré dans OpenShift par le logiciel Template Router, qui sous-tend l'implémentation par défaut du routeur.

CONCLUSION

Quel que soit leur lieu d'exécution, les applications peuvent bénéficier des performances offertes par NGINX.

Grâce à des solutions conçues pour les environnements Kubernetes et OpenShift, les applications fonctionnant sur des plateformes de conteneurs dynamiques peuvent obtenir la configuration à la demande des services dont elles ont besoin. Ceci par des outils natifs du système de gestion des conteneurs. 

RESSOURCES

En savoir plus sur l'avenir de la plateforme d'applications NGINX et sur la façon dont F5 aide les entreprises à faire évoluer leurs applications pour l'ère numérique.

HISTOIRE DE CLIENT

LKQD Technologies réduit la complexité opérationnelle avec NGINX Ingress Controller pour Kubernetes

POUR DÉMARRER

Microservices

Trouvez les meilleures stratégies de conception de microservices et apprenez comment commencer à remodeler des applications monolithiques en microservices.

Mise en réseau des conteneurs

Ce guide vous permettra d'explorer les modes de mise en réseau Docker et d'apprendre comment Kubernetes aborde la mise en réseau des conteneurs.

Cloud Native DevOps

Téléchargez le livre électronique pour apprendre comment appliquer les pratiques de DevOps standard de l'industrie pour Kubernetes dans un contexte de clouds.