BLOG | NGINX

API Connectivity Manager ajuda Dev e Ops a trabalhar melhor juntos

NGINX-Parte-de-F5-horiz-preto-tipo-RGB
Rajesh Bavanantham Miniatura
Rajesh Bavanantham
Publicado em 03 de novembro de 2022

Os aplicativos nativos da nuvem são compostos de dezenas, centenas ou até milhares de APIs que conectam microsserviços. Juntos, esses serviços e APIs oferecem a resiliência, a escalabilidade e a flexibilidade que estão no cerne dos aplicativos nativos da nuvem.

Hoje, essas APIs e microsserviços subjacentes são frequentemente criados por equipes distribuídas globalmente, que precisam operar com um grau de autonomia e independência para entregar recursos ao mercado em tempo hábil.

Ao mesmo tempo, as equipes de operações de plataforma são responsáveis por garantir a confiabilidade e a segurança geral dos aplicativos e da infraestrutura da empresa, incluindo suas APIs subjacentes. Eles precisam de visibilidade no tráfego da API e da capacidade de definir barreiras globais para garantir segurança e conformidade uniformes, tudo isso enquanto oferecem uma excelente experiência ao desenvolvedor de API .

Embora os interesses desses dois grupos possam estar em conflito, não acreditamos que isso seja inevitável. Criamos o API Connectivity Manager como parte do F5 NGINX Management Suite para permitir que as equipes de operações de plataforma mantenham tudo seguro e funcionando sem problemas, e que os desenvolvedores de API criem e liberem novos recursos com facilidade.

Criando uma arquitetura para dar suporte à conectividade de API

Como um plano de gerenciamento de última geração, o API Connectivity Manager foi criado para concretizar e estender o poder do NGINX Plus como um gateway de API . Se você já usou o NGINX no passado, está familiarizado com a escalabilidade, confiabilidade, flexibilidade e desempenho do NGINX como um gateway de API.

Ao projetar o API Connectivity Manager, desenvolvemos uma nova arquitetura para permitir que as equipes de operações de plataforma e os desenvolvedores trabalhem melhor juntos. Ele usa os seguintes termos padrão da indústria para seus componentes (alguns dos quais diferem dos nomes familiares aos usuários experientes do NGINX):

  • Espaço de trabalho – Uma coleção isolada de infraestrutura para o gerenciamento e uso dedicado de uma única unidade de negócios ou equipe; geralmente inclui vários ambientes
  • Ambiente – Uma coleção lógica de instâncias NGINX Plus (clusters) atuando como gateways de API ou portais de desenvolvedores para uma fase específica do ciclo de vida do aplicativo, como desenvolvimento, teste ou produção
  • Cluster de proxy do API Gateway – Uma representação lógica do gateway da API NGINX que agrupa instâncias do NGINX Plus e sincroniza o estado entre elas
  • Proxy de API – Uma representação de uma instância publicada de uma API e inclui roteamento, controle de versão e outras políticas
  • Políticas – Uma abstração global ou local para definir funções específicas do proxy da API, como resiliência de tráfego, segurança ou qualidade de serviço

O diagrama a seguir ilustra como os componentes são aninhados em um Workspace:

Essa hierarquia lógica permite uma variedade de casos de uso importantes que oferecem suporte à conectividade de API em toda a empresa. Por exemplo, os Workspaces podem incorporar vários tipos de infraestrutura (por exemplo, nuvem pública e local), dando às equipes acesso a ambos e fornecendo visibilidade do tráfego de API em ambos os ambientes aos proprietários da infraestrutura.

Analisaremos os componentes arquitetônicos com mais detalhes em postagens futuras. Por enquanto, vamos ver como o API Connectivity Manager atende às diferentes personas que contribuem para o desenvolvimento e a entrega da API.

Gerenciador de conectividade de API para operações de plataforma

A equipe de operações de plataforma é responsável por criar e gerenciar o ciclo de vida da infraestrutura de cada organização. Eles fornecem a plataforma na qual os desenvolvedores criam aplicativos e serviços que atendem clientes e parceiros. As equipes de desenvolvimento geralmente são descentralizadas, trabalhando em vários ambientes e se reportando a diferentes linhas de negócios. Atender às necessidades desses grupos e ambientes dispersos e, ao mesmo tempo, manter os padrões de toda a empresa é um dos maiores desafios que as equipes de operações de plataforma enfrentam hoje.

O API Connectivity Manager oferece maneiras inovadoras de segregar as equipes e suas operações usando os Workspaces como um limite lógico. Ele também permite que as equipes de operações de plataforma gerenciem o ciclo de vida da infraestrutura sem interferir na criação e implantação de APIs pelas equipes. O API Connectivity Manager vem com um conjunto integrado de políticas globais padrão para fornecer segurança e configuração básicas para gateways de API e portais de desenvolvedores do NGINX Plus. As equipes de operações de plataforma podem então configurar políticas globais suplementares para exigir mTLS, configurar formatos de log ou padronizar cabeçalhos de proxy.

A política global impõe uniformidade e traz consistência às APIs implantadas no cluster de gateway de API compartilhado. O API Connectivity Manager também oferece às organizações a oportunidade de executar clusters de plano de dados descentralizados para separar fisicamente onde cada equipe ou linha de negócios implanta suas APIs.

Diagrama mostrando como o API Connectivity Manager permite que vários grupos gerenciem seus próprios Workspaces e Ambientes

Em um blog subsequente, exploraremos como as equipes de operações de plataforma podem usar o API Connectivity Manager para garantir a segurança e a governança da API, ao mesmo tempo em que ajudam os desenvolvedores de API a ter sucesso.

Gerenciador de conectividade de API para desenvolvedores

Equipes de diferentes linhas de negócios possuem e operam seus próprios conjuntos de APIs. Eles precisam de controle sobre seus produtos de API para entregar seus aplicativos e serviços ao mercado no prazo, o que significa que não podem esperar pela aprovação de outras equipes para usar a infraestrutura compartilhada. Ao mesmo tempo, é necessário que existam “guardrails” para evitar que as equipes pisem nos pés umas das outras.

Assim como a persona Platform Ops, os desenvolvedores, como proprietários de APIs, obtêm seus próprios Workspaces que segregam suas APIs de outras equipes. O API Connectivity Manager fornece políticas no nível do proxy da API para que os proprietários da API configurem configurações de nível de serviço, como limitação de taxa e requisitos de segurança adicionais.

Diagrama mostrando como as políticas de proxy de API para serviços gerenciados por proprietários de API são construídas sobre uma base de políticas globais para infraestrutura gerenciada por Platform Ops

Em um blog subsequente, exploraremos como os desenvolvedores podem usar o API Connectivity Manager para simplificar o gerenciamento do ciclo de vida da API.

Iniciar

Inicie uma avaliação gratuita de 30 dias do NGINX Management Suite , que inclui o API Connectivity Manager e o Instance Manager .


"Esta postagem do blog pode fazer referência a produtos que não estão mais disponíveis e/ou não têm mais suporte. Para obter as informações mais atualizadas sobre os produtos e soluções F5 NGINX disponíveis, explore nossa família de produtos NGINX . O NGINX agora faz parte do F5. Todos os links anteriores do NGINX.com redirecionarão para conteúdo semelhante do NGINX no F5.com."