Las organizaciones buscan desarrollar nuevas aplicaciones y flujos de trabajo basados en IA. Sin embargo, implementarlos correctamente puede ser complicado. Múltiples marcos de IA y entornos de aplicaciones crean complejidad para los desarrolladores y los equipos de seguridad. Necesitan una solución que facilite la creación, ejecución y protección de inferencias rápidas.
El kit de herramientas OpenVINO™ de Intel es un kit de herramientas de código abierto que acelera la inferencia de IA al tiempo que ofrece un espacio más pequeño y un enfoque de escritura única e implementación en cualquier lugar. Ayuda a los desarrolladores a crear soluciones de IA escalables y eficientes con relativamente pocas líneas de código. Los desarrolladores pueden utilizar modelos de IA entrenados con marcos populares como TensorFlow, PyTorch, ONNX y más. Con OpenVINO, los desarrolladores primero convierten y pueden optimizar y comprimir aún más los modelos para obtener respuestas más rápidas. Ahora, el modelo de IA está listo para implementarse incorporando el entorno de ejecución de OpenVINO en su aplicação para que sea compatible con IA. Los desarrolladores pueden implementar su aplicação con IA a través de un contenedor liviano en un centro de datos, en la nube o en el borde en una variedad de arquitecturas de hardware.
Es posible que un desarrollador no desee alojar el modelo con la aplicação o integrarlo en la aplicação. Es posible que sea necesario actualizar el modelo de la aplicación de vez en cuando, y que la aplicação deba ejecutar varios modelos para ofrecer las funciones que aplicação . OpenVINO tiene una solución con el servidor de modelos OpenVINO, un sistema de alto rendimiento definido por software para servir modelos en una arquitectura cliente-servidor. Los beneficios del servidor de modelos OpenVINO incluyen:
OpenVINO simplifica la optimización, la implementación y la escala de los modelos de IA, pero para ejecutarse en producción, también necesitan seguridad. F5 NGINX Plus funciona como un proxy inverso, ofreciendo gestión de tráfico y protección para servidores de modelos de IA. Con configuraciones de alta disponibilidad y controles de estado activos, NGINX Plus puede garantizar que las solicitudes de aplicaciones, flujos de trabajo o usuarios lleguen a un servidor de modelo OpenVINO operativo. También permite el uso de certificados HTTPS y mTLS para cifrar las comunicaciones entre la aplicação del usuario y el servidor de modelos sin reducir el rendimiento.
Cuando se implementa en el mismo servidor host o máquina virtual, NGINX Plus filtra el tráfico entrante y monitorea el estado de los contenedores ascendentes. También ofrece almacenamiento en caché de contenido para acelerar el rendimiento y reducir el trabajo del servidor de modelos. Esta combinación proporciona una seguridad eficiente, pero es posible que los servidores del modelo NGINX Plus y OpenVINO deban competir por recursos cuando se implementan en una sola CPU. Esto puede provocar ralentizaciones o degradación del rendimiento.
Debido a que los servicios de infraestructura como conmutación virtual, seguridad y almacenamiento pueden consumir una cantidad significativa de ciclos de CPU, Intel desarrolló la Unidad de procesamiento de infraestructura Intel® (Intel® IPU) que libera núcleos de CPU para mejorar el rendimiento de las aplicação . Las IPU Intel son dispositivos de red programables que administran de forma inteligente los recursos a nivel de sistema al acelerar de forma segura las funciones de infraestructura de red y almacenamiento en un centro de datos. Son compatibles con el servidor Dell PowerEdge R760 con procesadores Intel® Xeon® para brindar rendimiento y versatilidad para cargas de trabajo con uso intensivo de recursos informáticos. La integración con el controlador de administración integrado Dell iDRAC proporciona control térmico de circuito cerrado de la IPU.
El uso de una IPU Intel con un servidor en rack Dell PowerEdge R760 puede aumentar el rendimiento de los servidores modelo OpenVINO y F5 NGINX Plus. La ejecución de NGINX Plus en la IPU Intel proporciona rendimiento y escalabilidad gracias a los aceleradores de hardware de la IPU Intel. Esta combinación también deja recursos de CPU disponibles para los servidores del modelo de IA.
La integración de una IPU Intel con NGINX Plus crea un espacio de seguridad entre NGINX Plus y los servidores del modelo OpenVINO. Esta capa adicional de seguridad protege contra posibles vulnerabilidades compartidas para ayudar a salvaguardar datos confidenciales en el modelo de IA.
La solución combinada de F5, Intel y Dell facilita el soporte de la inferencia de IA en el borde. Con NGINX Plus en la IPU Intel, las respuestas son más rápidas y confiables al respaldar aplicações de borde como análisis de video e IoT.
La solución también funciona para redes de distribución de contenido con almacenamiento en caché y distribución de contenido optimizados, además de brindar soporte para implementaciones de microservicios distribuidos que necesitan confiabilidad en todos los entornos.
Potencie la inferencia de IA de alto rendimiento en cualquier lugar de forma segura y consistente con una solución combinada de hardware y software. Implemente fácilmente la inferencia de IA en centros de datos, nubes o sitios perimetrales mientras mantiene la disponibilidad y el rendimiento para respaldar a los usuarios y las aplicaciones impulsadas por IA.
Obtenga más información sobre la asociación entre F5 e Intel en f5.com/intel .