BLOG | NGINX

Exposer les API dans Kubernetes

NGINX-Partie-de-F5-horiz-black-type-RGB
Vignette de Jenn Gile
Jenn Gile
Publié le 10 mars 2022

Ce blog est le troisième d'une série en cinq parties sur la mise en réseau Kubernetes pour les microservices de mars 2022 :

 

Assurez-vous également de télécharger notre eBook gratuit, Gérer le trafic Kubernetes avec NGINX : Un guide pratique, pour des conseils détaillés sur la mise en œuvre de la mise en réseau Kubernetes avec NGINX.

Vous envisagez de traiter des requêtes API depuis Kubernetes et vous vous demandez quelles sont les meilleures pratiques pour déployer des passerelles API ? Alors l’Unité 2 est faite pour vous !

Trois activités vous guident progressivement d’une vue d’ensemble de haut niveau à l’application pratique. Nous vous suggérons de compléter les trois pour obtenir la meilleure expérience.

Étape 1 : Regardez le livestream (1 heure)

Chaque diffusion en direct de Microservices March offre un aperçu de haut niveau du sujet avec des experts en la matière de learnk8s et NGINX. Si vous manquez la diffusion en direct du 14 mars, ne vous inquiétez pas ! Vous pouvez l'attraper à la demande.

Dans cet épisode, nous répondons à la question « Comment exposer des API dans Kubernetes ? » Il couvre :

  • Bonnes pratiques pour le déploiement de passerelles API dans Kubernetes
  • Autorisation et authentification
  • OpenID Connect (OIDC)
  • Limitation de débit

Étape 2 : Approfondissez vos connaissances (1 à 2 heures)

Nous nous attendons à ce que vous ayez davantage de questions après le livestream ; c’est pourquoi nous avons organisé une collection de lectures et de vidéos pertinentes. Cette unité approfondit deux sujets : les options d’outils pour le déploiement de passerelles API dans Kubernetes et les cas d’utilisation que vous pouvez réaliser avec ces outils.

Blog | Comment choisir ? Passerelle API vs. Contrôleur d’entrée vs. Maillage de services
Commencez par lire ce blog, qui vous guide dans la décision concernant la technologie à utiliser pour les cas d’utilisation de passerelle API, avec des exemples de scénarios pour le trafic API nord-sud et est-ouest.
Webinaire | Cas d'utilisation de la passerelle API pour Kubernetes
En plus de discuter des différents outils et cas d'utilisation, nos experts démontrent comment vous pouvez utiliser un contrôleur Ingress et un service mesh pour réaliser des cas d'utilisation de passerelle API.

Maintenant que vous disposez d’une bonne base sur la manière dont les passerelles API peuvent être déployées dans Kubernetes, c’est le moment de vous plonger dans les cas d’utilisation courants. Les blogs suivants expliquent comment mettre en œuvre deux cas d’utilisation courants à l’aide des outils Kubernetes : la vérification d’identité et la limitation du débit.

Blog | Implémentation de l'authentification OpenID Connect dans Kubernetes avec Okta et NGINX Ingress Controller
Le contrôleur Ingress est un emplacement idéal pour l’authentification et l’autorisation centralisées dans Kubernetes, ce qui peut vous aider à réduire les erreurs et à augmenter l’efficacité. Dans ce blog, nous expliquons comment implémenter l’authentification unique avec NGINX Ingress Controller comme partie relais et Okta comme fournisseur d’identité dans le flux de code d’autorisation OIDC.

 

Blog et vidéo | Comment utiliser NGINX Service Mesh pour la limitation de débit
Un volume de demandes élevé peut surcharger vos services Kubernetes, c'est pourquoi limiter chaque client à un nombre raisonnable de demandes est un élément crucial de votre stratégie de résilience. Dans ce blog et cette vidéo, nous montrons comment il peut falloir moins de 10 minutes pour définir et appliquer une politique de limitation de débit à l’aide de NGINX Service Mesh.

Recherche bonus

Si vous souhaitez approfondir vos connaissances sur les API et les passerelles API et que vous disposez de plus d'une à deux heures à y consacrer, nous vous suggérons une série de ressources supplémentaires :

eMagazine | API en temps réel : Conception, fonctionnement et observation
Ce eMagazine aborde la planification, l'architecture et le déploiement efficaces des API pour une flexibilité fiable.
eBook | Manuel de l'API en temps réel NGINX
Cet eBook est un guide complet pour réduire la latence de vos applications et API sans faire de compromis. Il couvre les tendances qui stimulent les API en temps réel, une architecture de référence pratique pour toute entreprise, ainsi que des comparaisons de fournisseurs et des études de cas utiles pour justifier l'investissement dans la solution de gestion des API appropriée.

 

eBook | Gestion du trafic API 101 : Du suivi à la gestion et au-delà
Dans cet eBook O'Reilly, Mike Amundsen présente aux développeurs et aux administrateurs réseau les concepts de base et les défis de la surveillance et de la gestion du trafic API. Vous apprendrez des approches pour observer et contrôler le trafic externe (nord-sud) et pour optimiser le trafic interne (est-ouest). Vous examinerez également la valeur commerciale d’une bonne pratique de trafic API qui relie vos objectifs commerciaux et vos mesures de progression internes à une surveillance, un reporting et une analyse du trafic utiles.

 

 

Étape 3 : Mettez-vous à l'œuvre (1 heure)

Même avec tous les meilleurs webinaires et recherches, rien ne vaut la mise en main de la technologie. Les laboratoires vous guident à travers des scénarios courants pour renforcer votre apprentissage.

Dans notre deuxième laboratoire d’auto-apprentissage, vous utilisez NGINX Ingress Controller pour implémenter la limitation du débit et empêcher une API et une application d’être submergées par trop de requêtes. Regardez cette visite du laboratoire pour le voir en action et découvrir le « pourquoi » derrière chaque étape.

Pour accéder au laboratoire, vous devez vous inscrire à Microservices mars 2022. Si vous êtes déjà inscrit, l’e-mail que vous avez reçu avec le guide d’apprentissage de l’unité 2 comprend des instructions d’accès. Vous pouvez également tester le laboratoire dans votre propre environnement, en utilisant le didacticiel NGINX : Protégez les API Kubernetes avec la limitation de débit comme guide.

Pourquoi s'inscrire à la Marche des Microservices ?

Bien que certaines activités (les diffusions en direct et les blogs) soient disponibles gratuitement, nous devons collecter quelques informations personnelles pour vous permettre de profiter pleinement de l'expérience. L'inscription vous donne :

  • Accès à quatre laboratoires à votre rythme où vous pouvez vous familiariser avec la technologie via des scénarios courants
  • Adhésion au canal Slack de Microservices March pour poser des questions aux experts et réseauter avec d'autres participants
  • Guides d'apprentissage hebdomadaires pour vous aider à rester au courant de l'agenda
  • Invitations au calendrier pour les diffusions en direct

Et ensuite ?

Unité 3 : Le modèle de sécurité des microservices dans Kubernetes commence le 21 mars. Découvrez le modèle side-car, les politiques qui peuvent rendre vos services plus sûrs et résilients, les maillages de services, mTLS et le chiffrement de bout en bout .

Pour obtenir des conseils détaillés sur la mise en œuvre de la mise en réseau Kubernetes avec NGINX, téléchargez notre livre électronique, Gestion du trafic Kubernetes avec NGINX : Un guide pratique .


« Cet article de blog peut faire référence à des produits qui ne sont plus disponibles et/ou qui ne sont plus pris en charge. Pour obtenir les informations les plus récentes sur les produits et solutions F5 NGINX disponibles, explorez notre famille de produits NGINX . NGINX fait désormais partie de F5. Tous les liens NGINX.com précédents redirigeront vers un contenu NGINX similaire sur F5.com."