Vuelve a visitar la charla de Dmitriy Pastushenkov y Adrian Boguszewski en YOLO Vision 2024 sobre la optimización de los modelos de YOLO con Intel OpenVino y la ejecución de inferencias en tiempo real en el PC Intel's AI.
YOLO Vision 2024 (YV24), el evento híbrido anual de Ultralytics, reunió a entusiastas de la IA, desarrolladores y expertos de todo el mundo para explorar las últimas innovaciones en visión por ordenador. YV24 fue una gran oportunidad y plataforma para debatir nuevos avances. El evento contó con la presencia de actores clave de la industria de la IA que presentaron sus últimas innovaciones. Entre ellos estaba Intel, que participó en el evento presentando una keynote sobre su nuevo e innovador PC de IA y la integración de Intel OpenVino con Ultralytics YOLO modelos como Ultralytics YOLO11.
La charla corrió a cargo de Adrian Boguszewski, un Evangelista de Software que es coautor del conjunto de datos LandCover.ai y educa a los desarrolladores sobre el conjunto de herramientas OpenVINO de Intel, y Dmitriy Pastushenkov, un Evangelista de PC de IA con más de 20 años de experiencia en automatización industrial e IA. Durante el acto, Adrian compartió su emoción y dijo: "Hoy es un gran acontecimiento, no sólo porque Ultralytics ha presentado una nueva versión de YOLO , sino también porque podemos presentar este nuevo modelo que se ejecuta en nuestro nuevo hardware, así como una nueva versión de OpenVINO."
En este artículo, echaremos un vistazo a los aspectos más destacados de la charla deIntelen YV24, profundizando en los entresijos de su PC de IA, la serie Intel Core Ultra 200V, y en cómo se integran con los modelos Ultralytics YOLO utilizando el kit de herramientas OpenVINO . ¡Empecemos!
Dmitriy comenzó la ponencia profundizando en las diferencias clave entre la IA tradicional y la IA generativa. Se centró en cómo evolucionarán estas tecnologías y sus casos de uso en 2024. Las técnicas tradicionales de IA, como la visión por ordenador y el procesamiento del lenguaje natural, han sido esenciales para tareas como la estimación de la postura, la detección de objetos y el reconocimiento de voz. La IA generativa, sin embargo, representa una ola más reciente de tecnología de IA que implica aplicaciones como los chatbots, la generación de texto a imagen, la escritura de código e incluso el texto a vídeo.
Dmitriy señaló la diferencia de escala entre ambos. Explicó que, mientras que los modelos tradicionales de IA constan de millones de parámetros, los modelos generativos de IA funcionan a una escala mucho mayor. Los modelos de IA generativa suelen incluir miles de millones o incluso billones de parámetros, lo que los hace mucho más exigentes desde el punto de vista informático.
Dmitriy presentó el Intel AI PC como una nueva solución de hardware diseñada para hacer frente a los crecientes retos que plantea la ejecución eficiente de modelos de IA tanto tradicionales como generativos. El Intel AI PC es una máquina potente y eficiente energéticamente. Es capaz de ejecutar una amplia gama de modelos de IA localmente, sin necesidad de procesamiento basado en la nube.
El procesamiento local ayuda a mantener la privacidad de los datos sensibles. Cuando los modelos de IA pueden funcionar independientemente de las conexiones a Internet, se da respuesta a las preocupaciones éticas de las industrias en relación con la privacidad y la seguridad.
La fuerza motriz del PC de IA Intel es el procesador de la serie Intel Core Ultra 200V. Este procesador incorpora tres componentes clave: la Unidad Central de Procesamiento (CPU), la Unidad de Procesamiento Gráfico (GPU) y la Unidad de Procesamiento Neuronal (NPU). Cada uno de ellos desempeña un papel específico en el manejo de diferentes tipos de cargas de trabajo de IA. La CPU es ideal para tareas más pequeñas y de baja latencia que requieren respuestas rápidas, mientras que la GPU está optimizada para operaciones de alto rendimiento como la ejecución de modelos de IA. La NPU, diseñada para la eficiencia energética, es adecuada para tareas de larga duración como la detección de objetos en tiempo real con modelos como YOLO11.
Se destacó que el CPU puede ofrecer hasta 5 TOPS (billones de operaciones por segundo), el GPU hasta 67 TOPS, y la NPU proporciona una forma energéticamente eficiente de ejecutar tareas de IA de forma continua sin agotar los recursos del sistema.
El procesador Intel Core Ultra Serie 200V integra los tres motores de IA - NPU, CPU, y GPU - en un único chip pequeño. Su diseño se adapta perfectamente a dispositivos compactos como los portátiles, sin sacrificar el rendimiento.
El procesador también incluye RAM integrada, lo que reduce la necesidad de tarjetas gráficas independientes. Esto ayuda a reducir el consumo de energía y mantiene el dispositivo compacto. Dmitriy también destacó la flexibilidad del procesador. Los usuarios pueden decidir si ejecutan los modelos de IA en CPU, GPU, o en la NPU, dependiendo de la tarea. Por ejemplo, la detección de objetos con modelos YOLO11 puede ejecutarse en cualquiera de estos motores, mientras que las tareas más complejas, como la generación de texto a imagen, pueden utilizar tanto la GPU como la NPU al mismo tiempo para obtener un mejor rendimiento.
Durante la presentación, Dmitriy sacó el chip de su bolsillo, dando a todos una idea clara de lo pequeño que es en realidad, a pesar de su capacidad para manejar tareas de IA tan avanzadas. Fue una forma divertida y memorable de mostrar cómo Intel está llevando potentes capacidades de IA a dispositivos más portátiles y prácticos.
Tras presentar los últimos avances en hardware de Intel, Dmitriy pasó a hablar de la pila de software de Intel que soporta la IA. Presentó OpenVINO, el marco de código abierto de Inteldiseñado para optimizar y desplegar modelos de IA de forma eficiente en distintos dispositivos. OpenVINO va más allá de las tareas visuales, ampliando su soporte a los modelos de IA utilizados para el procesamiento del lenguaje natural, el procesamiento de audio, los transformadores, etc.
OpenVINO es compatible con plataformas populares como PyTorchTensorFlow y ONNXy los desarrolladores pueden incorporarlo fácilmente a sus flujos de trabajo. Una característica clave sobre la que llamó la atención fue la cuantización. La cuantización comprime los pesos de los modelos para reducir su tamaño, de modo que los modelos grandes puedan ejecutarse sin problemas en dispositivos locales sin necesidad de la nube. OpenVINO funciona en múltiples marcos, ejecutándose en CPU, GPU, NPU, FPGA o incluso dispositivos ARM, y es compatible con Windows, Linux y macOS. Dmitriy también explicó a los asistentes lo fácil que es empezar a utilizar OpenVINO.
En la segunda parte de la charla, el micrófono pasó a Adrian, que explicó la perfecta integración entre los modelos Ultralytics YOLO y el conjunto de herramientas Intel's OpenVINO , simplificando el proceso de implantación de modelosYOLO . Explicó paso a paso cómo exportar un modelo YOLO utilizando el paqueteUltralytics Python al formato OpenVINO es rápido y sencillo. Esta integración hace que sea mucho más fácil para los desarrolladores optimizar sus modelos para el hardware Intel y sacar el máximo partido de ambas plataformas.
Adrian demostró que, una vez entrenado un modelo Ultralytics YOLO , los usuarios pueden exportarlo utilizando unos sencillos indicadores de la línea de comandos. Por ejemplo, los usuarios pueden especificar si quieren exportar el modelo como una versión en coma flotante para obtener la máxima precisión o como una versión cuantizada para mejorar la velocidad y la eficacia. También destacó cómo los desarrolladores pueden gestionar este proceso directamente a través del código, utilizando opciones como la cuantización INT8 para mejorar el rendimiento sin sacrificar demasiada precisión.
Poniendo en práctica toda esta teoría, el equipo de Intel presentó una demostración en tiempo real de detección de objetos ejecutándose YOLO11 en el PC Intel AI. Adrian mostró cómo el sistema manejaba el modelo en diferentes procesadores, consiguiendo 36 fotogramas por segundo (FPS) en el CPU con un modelo de coma flotante, más de 100 FPS en el GPU integrado y 70 FPS con la versión cuantificada INT8. Pudieron demostrar la eficacia con la que el PC de IA Intel puede gestionar tareas complejas de IA.
También señaló que el sistema puede ejecutar modelos en paralelo, utilizando la CPU, GPU, y la NPU conjuntamente para tareas en las que todos los datos o fotogramas de vídeo están disponibles por adelantado. Esto es útil cuando se procesan cargas pesadas como vídeos. El sistema puede dividir la carga de trabajo entre distintos procesadores, haciéndolo más rápido y eficiente.
Para terminar, Adrian mencionó que los usuarios podían probar demostraciones en casa, incluidas soluciones como el recuento de personas y la gestión inteligente de colas. A continuación, mostró una demostración adicional en la que los usuarios podían introducir instrucciones para generar imágenes oníricas en tiempo real en GPU. Demostró la versatilidad del PC Intel AI tanto para tareas tradicionales de IA como para proyectos creativos y generativos de IA.
En el evento, Intel tenía un stand donde mostraba una demostración de detección de objetos en tiempo real utilizando YOLO11, que se ejecutaba en su PC Intel AI. Los asistentes pudieron ver el modelo en acción, optimizado con OpenVINO, y desplegado en el procesador Intel Core Ultra 200V.
En el stand de Intel , Dmitry dijo: "Es la primera vez que participo en YOLO Vision, y estoy encantado de estar en Madrid. Estamos presentando el modelo YOLO11 de Ultralytics, que se ejecuta en el procesador Intel Core Ultra 200V. Muestra un rendimiento excelente, y utilizamos OpenVINO para optimizar y desplegar el modelo. Fue muy fácil colaborar con Ultralytics y ejecutar el modelo en el hardware más reciente de Intel , utilizando CPU, GPU y NPU". El stand también tenía algunos regalos divertidos, como camisetas y ordenadores portátiles para que los asistentes se los llevaran a casa.
IntelLa charla técnica de YV24, en la que se presentaron los procesadores de la serie Intel Core Ultra 200V, mostró cómo el kit de herramientas OpenVINO optimiza modelos de IA como Ultralytics YOLO11 . Esta integración permite a los usuarios ejecutar modelos YOLO directamente en sus dispositivos, ofreciendo un gran rendimiento para tareas de visión por ordenador como la detección de objetos. La principal ventaja es que los usuarios no necesitan depender de servicios en la nube.
Los desarrolladores y entusiastas de la IA pueden ejecutar y ajustar sin esfuerzo los modelos de YOLO , utilizando plenamente hardware como CPUs, GPUs y NPUs para aplicaciones en tiempo real. El conjunto de herramientas Intel OpenVINO , en combinación con los modelos Ultralytics YOLO , abre nuevas posibilidades para llevar las capacidades avanzadas de la IA directamente a los dispositivos personales, lo que lo convierte en una opción ideal para los desarrolladores deseosos de impulsar las innovaciones de la IA en diversos sectores.
¡Colaboremos e innovemos! Visita nuestro repositorio de GitHub para explorar nuestras contribuciones y colaborar con nuestra comunidad. Descubre cómo utilizamos la IA para influir en sectores como la fabricación y la sanidad.
Comienza tu viaje con el futuro del aprendizaje automático