BLOG | NGINX

Exposición de API en Kubernetes

NGINX - Parte de F5 - horizontal, negro, tipo RGB
Miniatura de Jenn Gile
Jenn Gile
Publicado el 10 de marzo de 2022

Este blog es el tercero de nuestra serie de cinco partes sobre redes de Kubernetes para microservicios de marzo de 2022:

 

Asegúrese también de descargar nuestro libro electrónico gratuito, Gestión del tráfico de Kubernetes con NGINX: Una guía práctica para obtener orientación detallada sobre la implementación de redes Kubernetes con NGINX.

¿Está planeando atender solicitudes de API desde Kubernetes y se pregunta cuáles son las mejores prácticas para implementar puertas de enlace de API? ¡Entonces la Unidad 2 es para ti!

Tres actividades le guiarán progresivamente desde una descripción general de alto nivel hasta la aplicação práctica. Le sugerimos que complete los tres para obtener la mejor experiencia.

Paso 1: Mira la transmisión en vivo (1 hora)

Cada transmisión en vivo de Microservicios de marzo ofrece una descripción general del tema con expertos de learnk8s y NGINX. Si te pierdes la transmisión en vivo del 14 de marzo, ¡no te preocupes! Podrás capturarlo a pedido.

En este episodio, respondemos la pregunta "¿Cómo expongo API en Kubernetes?" Cubre:

  • Mejores prácticas para implementar puertas de enlace de API en Kubernetes
  • Autorización y autenticación
  • Conexión OpenID (OIDC)
  • Limitación de velocidad

Paso 2: Profundiza tus conocimientos (1–2 horas)

Esperamos que tenga más preguntas después de la transmisión en vivo; por eso, seleccionamos una colección de lecturas y videos relevantes. El análisis profundo de esta unidad cubre dos temas: opciones de herramientas para implementar puertas de enlace de API en Kubernetes y casos de uso que puede lograr con estas herramientas.

Blog | ¿Cómo elijo? Puerta de enlace API frente a. Controlador de ingreso vs. Malla de servicios
Comience leyendo este blog, que lo guiará en la decisión sobre qué tecnología utilizar para los casos de uso de API Gateway, con escenarios de muestra para el tráfico de API de norte a sur y de este a oeste.
Seminario web | Casos de uso de API Gateway para Kubernetes
Además de analizar las distintas herramientas y casos de uso, nuestros expertos demuestran cómo se puede utilizar un controlador de Ingress y una malla de servicios para lograr casos de uso de API Gateway.

Ahora que tienes una buena base sobre cómo se pueden implementar las puertas de enlace de API en Kubernetes, es un buen momento para profundizar en casos de uso comunes. Los siguientes blogs explican cómo implementar dos casos de uso comunes utilizando herramientas de Kubernetes: verificación de identidad y limitación de velocidad.

Blog | Implementación de la autenticación OpenID Connect en Kubernetes con Okta y el controlador de ingreso NGINX
El controlador de Ingress es una ubicación ideal para la autenticación y autorización centralizadas en Kubernetes, lo que puede ayudarlo a reducir errores y aumentar la eficiencia. En este blog, analizamos cómo implementar el inicio de sesión único con NGINX Ingress Controller como parte retransmisora y Okta como proveedor de identidad en el flujo de código de autorización OIDC.

 

Blog y video | Cómo usar la malla de servicio NGINX para limitar la velocidad
Un alto volumen de solicitudes puede saturar sus servicios de Kubernetes, por lo que limitar a cada cliente a una cantidad razonable de solicitudes es un componente crucial de su estrategia de resiliencia. En este blog y video, demostramos cómo puede tomar menos de 10 minutos definir y aplicar una política de limitación de velocidad utilizando NGINX Service Mesh.

Investigación adicional

Si desea profundizar sus conocimientos sobre las API y las puertas de enlace de API, y dispone de más de 1 o 2 horas para dedicarles, le sugerimos una serie de recursos adicionales:

Revista electrónica | API en tiempo real: Diseño, operación y observación
Esta revista electrónica aborda la planificación, la arquitectura y la implementación efectivas de API para lograr una flexibilidad confiable.
Libro electrónico | Manual de la API en tiempo real de NGINX
Este libro electrónico es una guía completa para reducir la latencia en sus aplicações y API sin hacer concesiones. Cubre las tendencias que impulsan las API en tiempo real, una arquitectura de referencia práctica para cualquier empresa y útiles comparaciones de proveedores y estudios de casos para justificar la inversión en la solución de gestión de API adecuada.

 

Libro electrónico | Gestión del tráfico API 101: Del seguimiento a la gestión y más allá
En este libro electrónico de O'Reilly, Mike Amundsen presenta a los desarrolladores y administradores de red los conceptos básicos y los desafíos del monitoreo y la gestión del tráfico de API. Aprenderá enfoques para observar y controlar el tráfico externo (norte-sur) y para optimizar el tráfico interno (este-oeste). También examinará el valor comercial de las buenas prácticas de tráfico de API que conectan sus objetivos comerciales y mediciones de progreso interno con un monitoreo, informes y análisis de tráfico útiles.

 

 

Paso 3: Ponerse manos a la obra (1 hora)

Incluso con los mejores seminarios web e investigaciones, no hay nada como tener en tus manos la tecnología. Los laboratorios te guiarán a través de escenarios comunes para reforzar tu aprendizaje.

En nuestro segundo laboratorio a su propio ritmo, utilizará NGINX Ingress Controller para implementar la limitación de velocidad y evitar que una API y una aplicación se vean abrumadas por demasiadas solicitudes. Mire este recorrido por el laboratorio para verlo en acción y aprender el "por qué" detrás de cada paso.

Para acceder al laboratorio, debes registrarte en Microservicios marzo 2022. Si ya está registrado, el correo electrónico que recibió con la Guía de aprendizaje de la Unidad 2 incluye instrucciones de acceso. Alternativamente, puede probar el laboratorio en su propio entorno, utilizando el Tutorial de NGINX: Proteja las API de Kubernetes con la limitación de velocidad como guía.

¿Por qué registrarse en Microservices March?

Si bien algunas de las actividades (transmisiones en vivo y blogs) están disponibles de forma gratuita, necesitamos recopilar un poco de información personal para brindarle la experiencia completa. El registro le proporciona:

  • Acceso a cuatro laboratorios a su propio ritmo donde podrá experimentar con la tecnología a través de escenarios comunes.
  • Membresía en el canal Slack de Microservicios de marzo para hacer preguntas a los expertos y establecer contactos con otros participantes.
  • Guías de aprendizaje semanales para ayudarte a mantenerte al tanto de la agenda.
  • Invitaciones del calendario para las transmisiones en vivo

¿Y ahora qué?

Unidad 3: El patrón de seguridad de microservicios en Kubernetes comienza el 21 de marzo. Obtenga información sobre el patrón sidecar, las políticas que pueden hacer que sus servicios sean más seguros y resistentes, las mallas de servicios, mTLS y el cifrado de extremo a extremo .

Para obtener instrucciones detalladas sobre la implementación de redes Kubernetes con NGINX, descargue nuestro libro electrónico, Gestión del tráfico de Kubernetes con NGINX: Una guía práctica .


"Esta publicación de blog puede hacer referencia a productos que ya no están disponibles o que ya no reciben soporte. Para obtener la información más actualizada sobre los productos y soluciones F5 NGINX disponibles, explore nuestra familia de productos NGINX . NGINX ahora es parte de F5. Todos los enlaces anteriores de NGINX.com redirigirán a contenido similar de NGINX en F5.com.