Explora lo más destacado del evento anual Ultralytics' y revive la experiencia híbrida YOLO Vision. Cubriremos el lanzamiento de Ultralytics' YOLO11, los interesantes paneles y mucho más.
El 27 de septiembre, Ultralytics reunió a la comunidad de la IA y la visión por ordenador en nuestro emocionante evento l híbrido anual, YOLO Vision 2024 (YV24). Celebrado en el Campus Google for Startups de Madrid y retransmitido por streaming a todo el mundo, el evento reunió a expertos, desarrolladores y entusiastas para debatir los últimos avances en IA de Visión, como el nuevo modeloUltralytics YOLO11. La retransmisión en directo del evento ya ha alcanzado más de 5.400 visualizaciones, con más de 10.600 impresiones y 469,5 horas de visionado, atrayendo a innovadores de todo el mundo.
YV24 comenzó con una cálida bienvenida de nuestro anfitrión, Oisin Lunny, que destacó la importancia de la comunidad y la conexión diciendo: "Soy un gran creyente en el poder de las grandes ideas y las grandes comunidades, y lo que Ultralytics ha creado con YOLO Vision es precisamente eso: una gran comunidad de grandes personas con grandes ideas".
En este artículo, señalaremos los aspectos más destacados de YOLO Vision 2024, desde las interesantes mesas redondas hasta los fascinantes casos de uso de la visión por ordenador en el mundo real. También exploraremos charlas técnicas que van desde la IA de vanguardia a la aceleración de hardware, así como los momentos de creación de redes y de comunidad que hicieron que el evento fuera un éxito. Tanto si te interesan las innovaciones en IA, los anuncios clave o el futuro de la IA de visión, este resumen del evento YOLO Vision 2024 cubre todos los puntos esenciales.
El lanzamiento del producto que se había bromeado antes de YOLO Vision 2024 se reveló finalmente con un anuncio durante la keynote inicial por parte de Glenn Jocher, Fundador y Director General de Ultralytics'. Glenn presentó Ultralytics YOLO11, la nueva generación de modelos de visión por ordenador, que llevaba varios meses en desarrollo. Para añadir más emoción al lanzamiento, Glenn fue entrevistado posteriormente en The Ravit Show y compartió sus impresiones sobre el desarrollo de YOLO11.
Durante su discurso, Glenn también compartió la historia de la trayectoria de la empresa, empezando por su formación en física de partículas y cómo su fascinación por comprender el universo le llevó finalmente al aprendizaje automático y la visión por ordenador.
Explicó cómo sus primeros trabajos en física, en los que los investigadores analizaban las interacciones de las partículas, eran similares a la detección de objetos en la visión por ordenador. Su curiosidad y su afán por trabajar en tecnología punta le llevaron finalmente a la creación de Ultralytics YOLOv5. A lo largo de su charla, Glenn hizo hincapié en la importancia de la colaboración y la contribución dentro de la comunidad de código abierto y dio las gracias a los desarrolladores de todo el mundo que han aportado sus comentarios y han ayudado a mejorar YOLOv5 y . Ultralytics YOLOv8 a lo largo del tiempo.
A continuación, presentó las características clave de Ultralytics YOLO11 y explicó que es más rápido, más preciso y más eficaz que los modelos anteriores. De hecho, YOLO11m utiliza un 22% menos de parámetros que YOLOv8m y, sin embargo, ofrece una mayor precisión en el conjunto de datos COCO, lo que hace que YOLO11 sea perfecto para aplicaciones en tiempo real en las que la velocidad y la precisión son fundamentales.
Glenn destacó la escala del lanzamiento diciendo: "Lanzamos 30 modelos en total, 25 de ellos de código abierto, con cinco tamaños diferentes para cinco tareas distintas. Las tareas son clasificación de imágenes, detección de objetos, segmentación de instancias, estimación de poses y cuadros delimitadores orientados". En cuanto a la empresa, anunció que el mes que viene estarán disponibles modelos robustos entrenados en un conjunto de datos propio de 1 millón de imágenes. Ni que decir tiene que el anuncio dio el pistoletazo de salida al evento con una nota alta, dejando a los asistentes con ganas de saber más sobre el potencial de YOLO11 para innovar en campos como la fabricación y los coches autoconducidos.
Las mesas redondas, moderadas por Oisin Lunny, en YOLO Vision 2024 aportaron una serie de puntos de vista sobre la IA, la visión por ordenador y la creación de comunidades.
En el primer panel participaron Glenn Jocher, Jing Qiu (figura clave en el desarrollo de los modelos YOLO en Ultralytics) y Ao Wang, de la Universidad de Tsinghua, coautor de YOLOv10. El panel debatió los últimos avances en IA generativa y visión por ordenador, centrándose en sus similitudes, diferencias y el impacto que cada campo ha tenido en el otro. A pesar del reciente auge de los grandes modelos lingüísticos (LLM), el panel señaló que la visión por ordenador tradicional sigue siendo esencial para tareas específicas en sectores como la sanidad.
El siguiente panel abordó los retos a los que se enfrentan las mujeres en el liderazgo de la IA, con ponentes: Paula Derrenger, Directora de Crecimiento de Ultralytics, Bruna de Guimarães, ex Directora de Operaciones y Directora de Operaciones de SaaS, Mariana Hernández, Directora del Capítulo de Latinas in Tech Madrid, y Christina Stathopoulous, Fundadora de Dare to Data , que compartieron sus experiencias, al tiempo que hablaron de la importancia de la tutoría y de la necesidad de que las mujeres tomen medidas proactivas para buscar puestos de liderazgo. Hernández aconsejó: "Sé proactiva, no esperes a que las cosas ocurran por ti", y animó a las mujeres del público a hacerse valer y buscar activamente oportunidades. La mesa redonda también debatió el valor de crear entornos de trabajo más propicios.
El último panel exploró cómo la creación de comunidades fuertes puede fomentar la innovación en IA. Burhan Qaddoumi, Harpreet Sahota y Bart Farrell debatieron sobre las formas de relacionarse con el público técnico, tanto en línea como en eventos presenciales. La idea de Farrell, "Tienes que encontrarte con ellos donde están", empatizó con la importancia de conectar con los miembros de la comunidad en sus propios términos para fomentar la colaboración y el aprendizaje compartido.
Varias charlas del YV24 arrojaron luz sobre cómo se están aplicando los modelos YOLO para resolver retos del mundo real en diversas industrias. Jim Griffin, presentador del podcast AI Master Group, habló de un proyecto que utiliza modelosYOLOv8 para controlar los movimientos de los tiburones a lo largo de la costa de California mediante la vigilancia con drones. El sistema alerta a socorristas, propietarios de tiendas de surf y padres, garantizando la seguridad de los bañistas al detectar tiburones a 60 metros sobre el océano. Griffin explicó que el verdadero reto no era el modelo de IA en sí, sino los extensos vuelos de drones y la recogida de datos necesarios para entrenar el modelo.
Del mismo modo, David Scott, de The Main Branch, habló de la expansión de la visión por ordenador desde la simple detección de objetos al análisis del comportamiento. En su charla presentó aplicaciones del mundo real, como el seguimiento del comportamiento del ganado y la identificación de actividades sospechosas en tiendas minoristas. Scott compartió cómo YOLOv8 puede utilizarse para controlar la salud del ganado analizando comportamientos específicos, como comer, beber y caminar.
Además, Ousman Umar, de NASCO Feeding Minds, pronunció un discurso especialmente emotivo, en el que explicó cómo su organización está cambiando vidas proporcionando formación en TI en Ghana. Su fundación ha creado 17 centros de TIC, formando a más de 65.000 estudiantes, con el objetivo de crear puestos de trabajo tecnológicos locales para ayudar a resolver problemas como la inmigración ilegal. La impactante historia de Umar transmitió cómo la educación y la tecnología juntas pueden impulsar un cambio duradero en las comunidades desfavorecidas.
YV24 también presentó diferentes charlas centradas en cómo la IA y el hardware se están uniendo para dar lugar a nuevas ideas. Expertos de empresas como IntelSony y NVIDIA abordaron el despliegue de modelos YOLO en dispositivos periféricos y la optimización del rendimiento. Dmitriy Pastushenkov y Adrian Boguszewski, de Intel , explicaron cómo su hardware admite los modelos YOLO en NPU, CPU y GPU, mientras que Amir Servi y Wei Tang, de Sony, explicaron cómo YOLO se integra con la plataforma AITRIOS para un despliegue eficaz de la IA en los bordes. Guy Dahan, de NVIDIA , habló sobre el uso de su arquitectura GPU para mejorar la inferencia de modelos YOLO .
Otras empresas como QualcommHugging Facey LightningAI también mostraron cómo sus plataformas facilitan a los desarrolladores la integración y el despliegue de los modelos YOLO . Devang Aggarwal, de Qualcomm, presentó cómo modelos como YOLOv8 pueden optimizarse para dispositivos Snapdragon a través del Qualcomm AI Hub.
Del mismo modo, Pavel Lakubovskii, de Hugging Face , describió cómo sus herramientas de código abierto permiten una integración perfecta de modelos como YOLOv8 en diversos flujos de trabajo, mientras que Luca Antiga, de Lightning AI, nos explicó cómo los desarrolladores pueden incorporar fácilmente modelos como YOLOv8 a nivel de código para crear prototipos e iteraciones más rápidamente.
En la semana previa al YV24, el equipo de Ultralytics se reunió en Madrid para una mezcla de talleres, reuniones de colaboración y actividades fuera de la sede. Estas actividades fueron más allá del trabajo, fomentando relaciones más sólidas y creando un ambiente positivo antes del evento. Al finalizar con una fiesta de celebración, los asistentes y ponentes tuvieron la oportunidad de establecer contactos, compartir conclusiones clave y explorar futuras colaboraciones. La combinación de trabajo en equipo y camaradería hizo del YV24 un éxito profesional y una experiencia memorable en todos los sentidos.
YV24 reunió innovación, colaboración y una mirada al futuro de la visión por ordenador. Con el lanzamiento de YOLO11, interesantes paneles y debates sobre hardware de IA y soluciones de vanguardia, el evento se centró en cómo la IA de visión puede marcar la diferencia y cómo está cambiando la tecnología para mantenerse al día de los avances en IA. También reforzó las conexiones dentro de la comunidad. Expertos y entusiastas compartieron ideas y exploraron el potencial de la visión por ordenador y YOLO. El acto concluyó con una divertida sesión de preguntas y respuestas, en la que se sortearon sudaderas con capucha de Ultralytics , dejando a todos entusiasmados por más innovaciones como YOLO11 en el futuro.
Visita nuestro repositorio de GitHub y conéctate con nuestra próspera comunidad para aprender más sobre la IA. Descubre cómo Vision AI está redefiniendo la innovación en sectores como la sanidad y la agricultura. 🚀
Comienza tu viaje con el futuro del aprendizaje automático