대기 시간을 최소화하고, 보안을 강화하고, 팀이 Kubernetes 및 기타 환경에서 모델 추론을 가속화할 수 있도록 지원합니다. 번개같이 빠르고 안정적이며 안전한 AI 배포를 경험하세요.
AI와 머신 러닝(AI/ML) 워크로드는 기업의 운영 및 혁신 방식에 혁명을 일으키고 있습니다. 쿠버네티스컨테이너 오케스트레이션 및 관리를 위한 사실상의 표준인 는 다음을 구동하기 위한 선택 플랫폼입니다. 확장 가능한 AI/ML 워크로드 및 추론 모델. F5 NGINX는 하이브리드, 멀티 클라우드 Kubernetes 환경에서 AI/ML 워크로드에 대해 대규모로 더 나은 가동 시간, 보호 및 가시성을 제공하는 동시에 복잡성과 운영 비용을 줄여줍니다.
적응형 부하 분산, 중단 없는 재구성, A/B 테스트, 카나리아 배포를 통해 AI/ML 워크로드를 쉽고 안정적으로 운영화하세요. 일관성을 통해 여러 환경에서 복잡성을 줄입니다.
실시간 및 과거 데이터를 사용하여 광범위하고 세부적인 측정항목과 대시보드를 통해 앱 연결 문제를 신속하게 해결하여 모델 제공 효율성, 가동 시간 및 SLA를 개선합니다.
추가적인 복잡성, 오버헤드를 추가하지 않고 릴리스 속도나 성능을 저하시키지 않는 분산 환경 전반의 강력한 보안 제어로 AI/ML 워크로드를 보호합니다.
NGINX는 중단 없이 새로운 모델을 실험하고 배포할 수 있도록 해줍니다. 모델의 상태 및 성능 지표를 수집, 모니터링, 분석하여 효과성과 정확성을 개선하는 동시에 강력하고 일관된 보안 제어를 통해 전체적인 보호를 보장할 수 있습니다.
NGINX는 WAF 기능 및 TLS 암호화를 비롯한 강력한 보안 기능으로 Kubernetes 환경을 강화하여 속도나 민첩성을 희생하지 않고도 민감한 AI 추론 프로세스를 보호합니다.
NGINX의 동적 확장 기능을 활용하여 증가하는 AI 워크로드를 손쉽게 처리하고, 광범위한 아키텍처 개편 없이도 성능과 사용자 경험을 유지합니다.
Ingress 컨트롤러와 Kubernetes용 F5 NGINX Connectivity Stack이 AI/ML 워크로드에 대한 모델 제공, 실험, 모니터링 및 보안을 단순화하고 효율화하는 데 어떻게 도움이 되는지 알아보세요.