Cheque verde
Enlace copiado en el portapapeles

Exporta y optimiza Ultralytics YOLOv8 para inferir en Intel OpenVINO

Optimiza tu modelo Ultralytics YOLOv8 para la inferencia utilizando OpenVINO. Sigue nuestra guía para convertir modelos PyTorch a ONNX y optimizarlos para aplicaciones en tiempo real.

En este blogpost, echaremos un vistazo a cómo puedes exportar y optimizar tu modelo preentrenado o entrenado a medida Ultralytics YOLOv8 para la inferencia utilizando OpenVINO. Si utilizas un sistema basado en Intel, ya sea CPU o GPU, esta guía te mostrará cómo acelerar significativamente tu modelo con el mínimo esfuerzo.

¿Por qué optimizar YOLOv8 con OpenVINO?

Optimizar tu modelo YOLOv8 con OpenVINO puede proporcionar hasta 3 veces más velocidad en las tareas de inferencia, sobre todo si utilizas Intel CPU . Este aumento del rendimiento puede suponer una gran diferencia en las aplicaciones en tiempo real, desde la detección de objetos hasta los sistemas de segmentación y seguridad.

Pasos para exportar y optimizar tu modelo YOLOv8

Comprender el proceso

Lo primero es lo primero, vamos a desglosar el proceso. Vamos a convertir un modelo PyTorch a ONNX y luego optimizarlo utilizando OpenVINO. Este proceso consta de unos pocos pasos sencillos y puede aplicarse a varios modelos y formatos, como TensorFlow, PyTorch, Caffe y ONNX.

Exportar el modelo

Entrando en ladocumentación de Ultralytics , descubrimos que exportar un modelo de YOLOv8 implica utilizar el método de exportación del framework Ultralytics . Este método nos permite convertir nuestro modelo de PyTorch a ONNXy, por último, optimizarlo para OpenVINO. El resultado es un modelo que se ejecuta significativamente más rápido, aprovechando el potente hardware de Intel.

Instalar dependencias

Antes de ejecutar el script de exportación, tendrás que asegurarte de que están instaladas todas las dependencias necesarias. Éstas incluyen la biblioteca Ultralytics , ONNX, y OpenVINO. La instalación de estos paquetes es un proceso sencillo que puede realizarse mediante pip, el instalador de paquetes Python .

Ejecutar el script de exportación

Una vez configurado tu entorno, puedes ejecutar tu script de exportación. Este script convertirá tu modelo PyTorch a ONNX y luego a OpenVINO. El proceso es sencillo y consiste en llamar a una única función para gestionar la exportación. El marco Ultralytics facilita la conversión y optimización de tus modelos, garantizando que obtengas el mejor rendimiento con las mínimas molestias.

Fig. 1. Nicolai Nielsen explicando cómo ejecutar el script de exportación.

Comparar el rendimiento

Tras la exportación, es esencial comparar el rendimiento de los modelos original y optimizado. Comparando el tiempo de inferencia de ambos modelos, puedes ver claramente las mejoras de rendimiento. Normalmente, el modelo OpenVINO mostrará una reducción significativa del tiempo de inferencia en comparación con el modelo original PyTorch . Esto es especialmente cierto en los modelos más grandes, donde el aumento de rendimiento es más notable.

Aplicación y ventajas en el mundo real

Optimizar los modelos YOLOv8 con OpenVINO es especialmente beneficioso para las aplicaciones que requieren procesamiento en tiempo real. He aquí algunos ejemplos:

  • Sistemas de seguridad: La detección de objetos en tiempo real puede alertar al personal de seguridad al instante, mejorando la seguridad y la capacidad de respuesta.
  • Vehículos Automatizados: Las velocidades de inferencia más rápidas mejoran la capacidad de respuesta de los sistemas de conducción autónoma, haciéndolos más seguros y fiables.
  • Sanidad: El procesamiento rápido de imágenes para herramientas de diagnóstico puede salvar vidas al proporcionar resultados más rápidos, lo que permite intervenir a tiempo.

Al aplicar estas optimizaciones, no sólo mejoras el rendimiento, sino también la fiabilidad y eficacia de tus aplicaciones. Esto puede conducir a mejores experiencias de usuario, mayor productividad y soluciones más innovadoras.

Conclusión

Exportar y optimizar un modelo YOLOv8 para OpenVINO es una forma poderosa de aprovechar el hardware Intel para aplicaciones de IA más rápidas y eficientes. Con unos sencillos pasos, puedes transformar el rendimiento de tu modelo y aplicarlo a escenarios del mundo real con eficacia.

Asegúrate de consultar más tutoriales y guías de Ultralytics para seguir mejorando tus proyectos de IA. Visita nuestro repositorio GitHub y únete a la comunidad Ultralytics para obtener más información y actualizaciones. ¡Innovemos juntos!

Recuerda, optimizar tus modelos no es sólo cuestión de velocidad: se trata de desbloquear nuevas posibilidades y garantizar que tus soluciones de IA sean sólidas, eficientes y estén preparadas para el futuro. 

Logotipo de FacebookLogotipo de TwitterLogotipo de LinkedInSímbolo de enlace de copia

Leer más en esta categoría

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático