BLOG | NGINX

API Connectivity Manager aide les développeurs et les opérateurs à mieux travailler ensemble

NGINX-Partie-de-F5-horiz-black-type-RGB
Rajesh Bavanantham Miniature
Rajesh Bavanantham
Publié le 03 novembre 2022

Les applications cloud natives sont composées de dizaines, de centaines, voire de milliers d’API reliant des microservices entre eux. Ensemble, ces services et API offrent la résilience, l’évolutivité et la flexibilité qui sont au cœur des applications cloud natives.

Aujourd’hui, ces API et microservices sous-jacents sont souvent créés par des équipes réparties à l’échelle mondiale, qui doivent fonctionner avec un certain degré d’autonomie et d’indépendance pour fournir des capacités au marché en temps opportun.

Dans le même temps, les équipes Platform Ops sont chargées de garantir la fiabilité et la sécurité globales des applications et de l'infrastructure de l'entreprise, y compris ses API sous-jacentes. Ils ont besoin d’une visibilité sur le trafic des API et de la possibilité de définir des garde-fous mondiaux pour garantir une sécurité et une conformité uniformes, tout en offrant une excellente expérience de développement d’API .

Bien que les intérêts de ces deux groupes puissent être en conflit, nous ne pensons pas que cela soit inévitable. Nous avons créé API Connectivity Manager dans le cadre de F5 NGINX Management Suite pour permettre simultanément aux équipes Platform Ops de garantir la sécurité et le bon fonctionnement des éléments et aux développeurs d'API de créer et de publier de nouvelles fonctionnalités en toute simplicité.

Création d'une architecture pour prendre en charge la connectivité API

En tant que plan de gestion de nouvelle génération, API Connectivity Manager est conçu pour réaliser et étendre la puissance de NGINX Plus en tant que passerelle API . Si vous avez déjà utilisé NGINX, vous connaissez l’évolutivité, la fiabilité, la flexibilité et les performances de NGINX en tant que passerelle API.

Lors de la conception d'API Connectivity Manager, nous avons développé une nouvelle architecture pour permettre aux équipes Platform Ops et aux développeurs de mieux travailler ensemble. Il utilise les termes industriels standard suivants pour ses composants (dont certains diffèrent des noms familiers aux utilisateurs expérimentés de NGINX) :

  • Espace de travail – Un ensemble isolé d'infrastructures pour la gestion et l'utilisation dédiées d'une seule unité commerciale ou d'une seule équipe ; comprend généralement plusieurs environnements
  • Environnement – Un ensemble logique d'instances NGINX Plus (clusters) agissant comme passerelles API ou portails de développeurs pour une phase spécifique du cycle de vie de l'application, comme le développement, le test ou la production
  • API Gateway Proxy Cluster – Une représentation logique de la passerelle API NGINX qui regroupe les instances NGINX Plus et synchronise l’état entre elles
  • Proxy API – Une représentation d’une instance publiée d’une API et inclut le routage, le contrôle de version et d’autres politiques
  • Politiques – Une abstraction globale ou locale permettant de définir des fonctions spécifiques du proxy API telles que la résilience du trafic, la sécurité ou la qualité de service

Le diagramme suivant illustre comment les composants sont imbriqués dans un espace de travail :

Cette hiérarchie logique permet une variété de cas d’utilisation importants qui prennent en charge la connectivité API à l’échelle de l’entreprise. Par exemple, les espaces de travail peuvent intégrer plusieurs types d’infrastructures (par exemple, cloud public et sur site), donnant aux équipes l’accès aux deux – et offrant une visibilité sur le trafic API dans les deux environnements aux propriétaires d’infrastructure.

Nous examinerons les composants architecturaux plus en détail dans les prochains articles. Pour l’instant, examinons comment API Connectivity Manager sert les différentes personnes qui contribuent au développement et à la livraison des API.

Gestionnaire de connectivité API pour les opérations de plate-forme

L'équipe Platform Ops est responsable de la création et de la gestion du cycle de vie de l'infrastructure pour chaque organisation. Ils fournissent la plate-forme sur laquelle les développeurs créent des applications et des services qui servent les clients et les partenaires. Les équipes de développement sont souvent décentralisées, travaillent dans plusieurs environnements et rendent compte à différents secteurs d’activité. Répondre aux besoins de ces groupes et environnements dispersés tout en maintenant les normes à l’échelle de l’entreprise est l’un des plus grands défis auxquels sont confrontées les équipes Platform Ops aujourd’hui.

API Connectivity Manager propose des moyens innovants de séparer les équipes et leurs opérations en utilisant les espaces de travail comme limite logique. Il permet également aux équipes Platform Ops de gérer le cycle de vie de l’infrastructure sans interférer avec les équipes qui créent et déploient les API. API Connectivity Manager est fourni avec un ensemble intégré de politiques globales par défaut pour fournir une sécurité et une configuration de base pour les passerelles API NGINX Plus et les portails de développeurs. Les équipes Platform Ops peuvent ensuite configurer des politiques globales supplémentaires pour exiger éventuellement mTLS, configurer des formats de journaux ou standardiser les en-têtes de proxy.

La politique globale impose l’uniformité et apporte de la cohérence aux API déployées dans le cluster de passerelle API partagée. API Connectivity Manager offre également aux organisations la possibilité d’exécuter des clusters de plans de données décentralisés pour séparer physiquement l’endroit où chaque équipe ou secteur d’activité déploie ses API.

Diagramme montrant comment API Connectivity Manager permet à plusieurs groupes de gérer leurs propres espaces de travail et environnements

Dans un prochain blog, nous explorerons comment les équipes Platform Ops peuvent utiliser API Connectivity Manager pour garantir la sécurité et la gouvernance des API tout en aidant les développeurs d'API à réussir.

Gestionnaire de connectivité API pour les développeurs

Les équipes de différents secteurs d’activité possèdent et exploitent leurs propres ensembles d’API. Ils ont besoin de contrôler leurs produits API pour livrer leurs applications et services sur le marché à temps, ce qui signifie qu’ils ne peuvent pas se permettre d’attendre l’approbation d’autres équipes pour utiliser une infrastructure partagée. Dans le même temps, il faut mettre en place des « garde-fous » pour empêcher les équipes de se marcher sur les pieds.

Tout comme le personnage Platform Ops, les développeurs en tant que propriétaires d'API obtiennent leurs propres espaces de travail qui séparent leurs API des autres équipes. API Connectivity Manager fournit des politiques au niveau du proxy API pour que les propriétaires d’API puissent configurer les paramètres de niveau de service tels que la limitation du débit et les exigences de sécurité supplémentaires.

Diagramme montrant comment les politiques de proxy API pour les services gérés par les propriétaires d'API s'appuient sur une base de politiques globales pour l'infrastructure gérée par Platform Ops

Dans un prochain blog, nous explorerons comment les développeurs peuvent utiliser API Connectivity Manager pour simplifier la gestion du cycle de vie des API.

Commencer

Démarrez un essai gratuit de 30 jours de NGINX Management Suite , qui comprend API Connectivity Manager et Instance Manager .


« Cet article de blog peut faire référence à des produits qui ne sont plus disponibles et/ou qui ne sont plus pris en charge. Pour obtenir les informations les plus récentes sur les produits et solutions F5 NGINX disponibles, explorez notre famille de produits NGINX . NGINX fait désormais partie de F5. Tous les liens NGINX.com précédents redirigeront vers un contenu NGINX similaire sur F5.com."