지난 10년간 NGINX 오픈 소스는 전 세계에서 가장 널리 쓰이는 웹 서버 중 하나이자 시장 점유율 기준 상위 애플리케이션 전달 솔루션입니다. 소규모 스타트업과 학술 연구 프로젝트부터 세계 최대 규모의 웹 애플리케이션까지, 여러분의 부하 분산과 역방향 프록시를 효과적으로 지원해왔습니다.
애플리케이션 제공의 기본 선택지가 된 것처럼 NGINX는 AI 애플리케이션의 학습과 서비스에서 조용하지만 필수적인 핵심 역할을 수행하고 있습니다. Intel OpenVINO Model Server, NVIDIA Morpheus, Meta의 vLLM, NVIDIA Triton 등 주요 AI 프레임워크, 툴킷, 라이브러리, 플랫폼은 기본 설정으로 F5 NGINX Plus (및 NGINX 오픈소스)를 포함해 gRPC/HTTP 프록시, SSL/TLS 종료, 상태 점검을 고려한 부하 분산 및 동적 재구성을 바로 지원합니다. Kubernetes 클러스터에서 실행되는 다수의 AI 서비스와 솔루션은 모델 학습과 추론을 위해 AI 클러스터 내부와 외부의 트래픽 관리를 위해 F5 NGINX Ingress Controller를 선호하는 옵션 중 하나로 꼽습니다. 자세히 살펴보면 거의 모든 AI 환경에 NGINX가 함께 작동하고 있음을 알 수 있습니다.
다양한 AI 활용 사례에서 NGINX는 AI 스택 핵심 역할을 합니다. 기반 모델을 미세 조정하든, LLM에서 토큰 출력을 스트리밍하든, 실시간 이상 탐지 엔드포인트로 요청을 라우팅하든, NGINX가 이미 경로에 포함돼 있을 가능성이 큽니다.
NGINX는 주요 AIOps 스택, 도구 및 관리 서비스에서 기본 인그레스로 널리 사용됩니다.
AI 프레임워크 | NGINX 활용 방법 |
실질적인 혜택 |
---|---|---|
인텔 OpenVINO 모델 서브 | F5와 Intel이 함께 NGINX Plus 뒤에 모델 샤드를 배포하는 데모를 선보입니다 (YouTube) | 하나의 게이트웨이가 CPU, GPU, VPU 백엔드로 경로를 설정합니다. |
엔비디아 트라이튼 | Helm 차트가 gRPC 액세스를 위해 NGINX Plus Ingress와 함께 Triton을 설치합니다 (GitHub) | HTTP/2 멀티플렉싱으로 GPU 활용도를 높입니다. |
NVIDIA Morpheus | "How I Did It" 가이드가 NGINX Plus 인그레스 F5 커뮤니티를 통해 Morpheus 보안을 구현합니다 | 실시간 보안 인사이트를 위해 TLS 오프로드와 적응형 WAF를 제공합니다. |
NVIDIA(XLIO) | NVIDIA Accelerated IO(XLIO) 기반 NGINX 배포 가이드 (docs.nvidia.com) | OpenSSL 지원과 샘플 파일을 포함한 빌드 지침으로 향상된 TLS 오프로드와 성능 튜닝을 제공합니다. |
Meta vLLM | 공식 문서에서 NGINX(vLLM)로 여러 vLLM 인스턴스를 효과적으로 분산하는 방법을 안내합니다. | 텍스트 생성 엔드포인트의 빠른 수평 확장을 지원합니다. |
MLOps 팀은 AI 배포에 필수적인 마이크로서비스와 API를 관리하는 팀이 NGINX를 도입하는 것과 동일한 이유로 NGINX 제품을 손쉽게 채택할 수 있습니다. 가볍고 모듈화되었으며 이식성이 뛰어나 다양한 환경에서 대량의 토큰을 안정적으로 처리합니다. AI 개발자와 머신러닝 엔지니어는 플랫폼이나 MLOps 팀이 구성한 컨테이너 이미지를 활용해 NGINX를 자주 사용하는 AI 환경에 신속하게 배포할 수 있습니다. NGINX는 주요 플랫폼과 프로세서 아키텍처 전반에서 하드웨어 가속 기능을 효과적으로 통합합니다.
NGINX를 기본 옵션으로 사용하는 AI 구성 요소는 저수준 GPU 스케줄링부터 고급 모델 서빙, 배포 오케스트레이션, 그리고 엔터프라이즈급 거버넌스까지 AI 인프라 전반에 걸쳐 적용됩니다. 이들은 NGINX가 추론 엔드포인트로의 트래픽을 안전하게 라우팅하고, 확장 가능하며 효율적인 모델 배포를 가능하게 하며, 다중 테넌트 클러스터 접근을 관리하고, 버전 관리, 감사, 규정 준수 등 운영 정책을 엄격히 시행하는 다양한 사용 사례를 지원한다는 점을 명확히 보여줍니다.
이들 플랫폼과 도구는 저수준 GPU 스케줄링부터 고수준 모델 서비스, 배포 오케스트레이션, 기업급 거버넌스까지 AI 인프라 전반을 포괄합니다. NGINX는 추론 엔드포인트로 안전하게 트래픽을 라우팅하고, 확장성과 효율성을 갖춘 모델 전달을 가능케 하며, 다중 테넌트 클러스터 접근을 관리하고, 버전 관리, 감사, 규정 준수 등 운영 정책을 철저히 적용하는 등 다양한 활용 사례를 보여줍니다. 이 목록은 계속 늘어나고 있으며, 우리는 차세대 AI 네이티브 기업들이 NGINX와 함께 어떤 혁신을 이룰지 기대하고 있습니다.
F5 NGINX One으로 AI 확장을 지원받으세요.