조직은 AI로 구동되는 새로운 앱과 워크플로를 구축하려고 합니다. 하지만 이를 성공적으로 운영하는 것은 까다로울 수 있습니다. 여러 AI 프레임워크와 앱 환경은 개발자와 보안 팀에 복잡성을 초래합니다. 그들은 신속한 추론을 보다 쉽게 구축, 실행하고 보안을 강화할 수 있는 솔루션이 필요합니다.
Intel의 OpenVINO™ 툴킷은 더 작은 설치 공간과 한 번 작성하고 어디에나 배포할 수 있는 접근 방식을 제공하면서 AI 추론을 가속화하는 오픈 소스 툴킷입니다. 이는 개발자가 비교적 적은 줄의 코드로 확장 가능하고 효율적인 AI 솔루션을 만드는 데 도움이 됩니다. 개발자는 TensorFlow, PyTorch, ONNX 등의 인기 있는 프레임워크를 사용하여 학습된 AI 모델을 사용할 수 있습니다. OpenVINO를 사용하면 개발자는 모델을 먼저 변환한 다음, 더욱 빠르게 응답할 수 있도록 최적화하고 압축할 수 있습니다. 이제 AI 모델은 OpenVINO 런타임을 애플리케이션에 내장하여 AI 기능을 구현하여 배포할 준비가 되었습니다. 개발자는 다양한 하드웨어 아키텍처의 데이터 센터, 클라우드 또는 에지에 있는 경량 컨테이너를 통해 AI가 주입된 애플리케이션을 배포할 수 있습니다.
개발자는 모델을 애플리케이션과 함께 호스팅하거나 애플리케이션에 내장하는 것을 원하지 않을 수도 있습니다. 애플리케이션 모델은 수시로 업데이트되어야 할 수 있으며 애플리케이션은 애플리케이션이 제공하는 기능을 제공하기 위해 여러 모델을 실행해야 할 수 있습니다. OpenVINO는 클라이언트-서버 아키텍처에서 모델을 제공하기 위한 소프트웨어 정의 고성능 시스템인 OpenVINO 모델 서버를 솔루션으로 제공합니다. OpenVINO 모델 서버의 이점은 다음과 같습니다.
OpenVINO는 AI 모델의 최적화, 배포, 확장을 간소화하지만, 프로덕션에서 실행하려면 보안도 필요합니다. F5 NGINX Plus는 역방향 프록시 역할을 하여 AI 모델 서버에 대한 트래픽 관리 및 보호 기능을 제공합니다. 고가용성 구성과 활성 상태 검사를 통해 NGINX Plus는 앱, 워크플로 또는 사용자의 요청이 운영 가능한 OpenVINO 모델 서버에 도달하도록 보장할 수 있습니다. 또한 성능 저하 없이 HTTPS 및 mTLS 인증서를 사용하여 사용자 애플리케이션과 모델 서버 간의 통신을 암호화할 수 있습니다.
동일한 호스트 서버나 가상 머신에 배포되는 경우 NGINX Plus는 들어오는 트래픽을 필터링하고 업스트림 컨테이너의 상태를 모니터링합니다. 또한, 성능을 높이고 모델 서버의 작업을 줄이기 위해 콘텐츠 캐싱 기능도 제공합니다. 이러한 조합은 효율적인 보안을 제공하지만 NGINX Plus와 OpenVINO 모델 서버는 단일 CPU에 배포되는 경우 리소스를 놓고 경쟁해야 할 수 있습니다. 이로 인해 속도 저하 또는 성능 저하가 발생할 수 있습니다.
가상 스위칭, 보안, 스토리지와 같은 인프라 서비스는 상당한 수의 CPU 사이클을 소모할 수 있으므로 Intel은 CPU 코어를 확보하여 애플리케이션 성능을 개선하는 Intel® Infrastructure Processing Unit(Intel® IPU)을 개발했습니다. Intel IPU는 데이터 센터에서 네트워킹 및 스토리지 인프라 기능을 안전하게 가속화하여 시스템 수준의 리소스를 지능적으로 관리하는 프로그래밍 가능한 네트워크 장치입니다. 이 제품은 컴퓨팅 집약적 워크로드에 필요한 성능과 다양성을 제공하는 Intel® Xeon® 프로세서가 탑재된 Dell PowerEdge R760 서버와 호환됩니다. Dell iDRAC 통합 관리 컨트롤러와 통합되어 IPU의 폐쇄 루프 열 제어가 제공됩니다.
Dell PowerEdge R760 랙 서버에 Intel IPU를 사용하면 OpenVINO 모델 서버와 F5 NGINX Plus의 성능이 모두 향상될 수 있습니다. Intel IPU에서 NGINX Plus를 실행하면 Intel IPU의 하드웨어 가속기 덕분에 성능과 확장성이 제공됩니다. 이 조합을 사용하면 AI 모델 서버에 CPU 리소스를 사용할 수 있게 됩니다.
NGINX Plus에 Intel IPU를 통합하면 NGINX Plus와 OpenVINO 모델 서버 사이에 보안 에어 갭이 생성됩니다. 이러한 추가적인 보안 계층은 잠재적인 공유 취약점으로부터 보호하여 AI 모델의 민감한 데이터를 보호하는 데 도움이 됩니다.
F5, Intel, Dell의 결합된 솔루션을 사용하면 엣지에서 AI 추론을 보다 쉽게 지원할 수 있습니다. Intel IPU에 NGINX Plus를 사용하면 비디오 분석 및 IoT와 같은 에지 애플리케이션을 지원하는 데 있어 응답이 더 빠르고 안정적입니다.
이 솔루션은 최적화된 캐싱 및 콘텐츠 전송 기능을 갖춘 콘텐츠 전송 네트워크에서도 작동하며, 여러 환경에서 안정성이 필요한 분산형 마이크로서비스 배포에 대한 지원을 제공합니다.
하드웨어와 소프트웨어 솔루션을 결합하여 어디서나 안전하고 일관되게 고성능 AI 추론을 구현하세요. 사용자와 AI 기반 앱을 지원하기 위해 가용성과 성능을 유지하면서 데이터 센터, 클라우드 또는 에지 사이트에 AI 추론을 쉽게 배포하세요.
f5.com/intel 에서 F5와 Intel의 파트너십에 대해 자세히 알아보세요.