Explore les points forts de l'événement annuel Ultralytics' et revois l'expérience hybride YOLO Vision. Nous couvrirons Ultralytics' le lancement de YOLO11, des panels captivants, et plus encore.
Le 27 septembre, Ultralytics a réuni la communauté de l'IA et de la vision par ordinateur pour notre passionnant événement annuel hybride l, YOLO Vision 2024 (YV24). Accueilli sur le campus Google for Startups à Madrid et diffusé en streaming dans le monde entier, l'événement a rassemblé des experts, des développeurs et des passionnés pour discuter des dernières avancées en matière d'IA de vision, telles que le nouveau modèleUltralytics YOLO11. Le streaming en direct de l'événement a déjà atteint plus de 5 400 vues, avec plus de 10 600 impressions et 469,5 heures de visionnage, engageant les innovateurs du monde entier.
YV24 a commencé par un accueil chaleureux de notre hôte, Oisin Lunny, qui a souligné l'importance de la communauté et de la connexion en disant : "Je crois beaucoup au pouvoir des grandes idées et des grandes communautés, et ce que Ultralytics a créé avec YOLO Vision est exactement cela - une grande communauté de personnes formidables avec des idées formidables."
Dans cet article, nous mettrons le doigt sur les principaux points forts de YOLO Vision 2024, des discussions de groupe captivantes aux fascinants cas d'utilisation de la vision par ordinateur dans le monde réel. Nous explorerons également les exposés techniques allant de l'IA de pointe à l'accélération matérielle, ainsi que les moments de réseautage et de création de communautés qui ont fait de l'événement un succès. Que tu t'intéresses aux innovations en matière d'IA, aux annonces clés ou à l'avenir de la vision artificielle, ce récapitulatif de l'événement YOLO Vision 2024 couvre tous les points essentiels à retenir !
Le lancement du produit qui avait été teasé avant YOLO Vision 2024 a finalement été révélé avec une annonce lors de la keynote initiale par Glenn Jocher, Ultralytics' Fondateur et PDG. Glenn a présenté Ultralytics YOLO11, marquant la prochaine génération de modèles de vision par ordinateur, qui était en cours de développement depuis plusieurs mois. Pour ajouter à l'excitation du lancement, Glenn a été interviewé plus tard sur le Ravit Show et a partagé des idées sur le développement de YOLO11.
Au cours de son discours-programme, Glenn a également raconté le parcours de l'entreprise, en commençant par sa formation en physique des particules et en expliquant comment sa fascination pour la compréhension de l'univers l'a finalement conduit à l'apprentissage automatique et à la vision par ordinateur.
Il a expliqué comment ses premiers travaux en physique, où les chercheurs analysaient les interactions entre les particules, étaient similaires à la détection d'objets dans la vision par ordinateur. Sa curiosité et sa volonté de travailler sur des technologies de pointe ont finalement abouti à la création de . Ultralytics YOLOv5. Tout au long de son exposé, Glenn a souligné l'importance de la collaboration et de la contribution au sein de la communauté open-source et a remercié les développeurs du monde entier qui ont fait part de leurs commentaires et ont contribué à améliorer YOLOv5 et . Ultralytics YOLOv8 au fil du temps.
Il a ensuite présenté les principales caractéristiques de Ultralytics YOLO11 et expliqué qu'il est plus rapide, plus précis et plus efficace que les modèles précédents. En fait, YOLO11m utilise 22 % de paramètres en moins que YOLOv8m tout en offrant une meilleure précision sur l'ensemble de données COCO, ce qui rend YOLO11 parfait pour les applications en temps réel où la vitesse et la précision sont fondamentales.
Glenn a souligné l'ampleur du lancement en déclarant : "Nous lançons 30 modèles au total, dont 25 sont open source, avec cinq tailles différentes pour cinq tâches différentes. Ces tâches sont la classification d'images, la détection d'objets, la segmentation d'instances, l'estimation de la pose et les boîtes de délimitation orientées." Du côté des entreprises, il a annoncé que le mois prochain, des modèles robustes entraînés sur un ensemble de données propriétaire d'un million d'images seraient disponibles. Il va sans dire que cette annonce a donné le coup d'envoi de l'événement sur une note positive, laissant les participants impatients d'en savoir plus sur le potentiel d'innovation de YOLO11 dans des domaines tels que la fabrication et les voitures auto-conduites.
Les tables rondes, animées par Oisin Lunny, à l'adresse YOLO Vision 2024 ont permis d'obtenir divers points de vue sur l'IA, la vision par ordinateur et la création d'une communauté.
Le premier groupe de discussion était composé de Glenn Jocher, Jing Qiu (figure clé du développement des modèles YOLO sur Ultralytics) et Ao Wang de l'université de Tsinghua, co-auteur de YOLOv10. Le groupe a discuté des développements récents en matière d'IA générative et de vision par ordinateur, en mettant l'accent sur leurs similitudes, leurs différences et l'impact que chaque domaine a eu sur l'autre. Malgré l'essor récent des grands modèles de langage (LLM), le groupe a noté que la vision par ordinateur traditionnelle est toujours essentielle pour des tâches spécifiques dans des secteurs tels que la santé.
Le panel suivant a abordé les défis auxquels les femmes sont confrontées en matière de leadership en IA, avec des intervenants : Ultralytics' Directrice de la croissance Paula Derrenger, l'ancienne CPO et COO de SaaS Bruna de Guimarães, le chef de chapitre de Latinas in Tech Madrid Mariana Hernandez, et la fondatrice de Dare to Data Christina Stathopoulous partageant leurs expériences, tout en discutant de l'importance du mentorat et de la nécessité pour les femmes de prendre des mesures proactives dans la recherche de rôles de leadership. Hernandez a conseillé : "Soyez proactives, n'attendez pas que les choses se passent pour vous", et a encouragé les femmes de l'auditoire à s'affirmer et à saisir activement les opportunités qui se présentent. Le panel a également discuté de la valeur de la création d'environnements de travail plus favorables.
La dernière table ronde a exploré la façon dont la création de communautés solides peut favoriser l'innovation dans le domaine de l'IA. Burhan Qaddoumi, Harpreet Sahota et Bart Farrell ont discuté des moyens de s'engager auprès des publics techniques, à la fois en ligne et lors d'événements en personne. L'idée de Farrell, "Vous devez les rencontrer là où ils sont", a mis en évidence l'importance de se connecter avec les membres de la communauté selon leurs conditions afin d'encourager la collaboration et l'apprentissage partagé.
Plusieurs exposés présentés à YV24 ont mis en lumière la façon dont les modèles YOLO sont appliqués pour résoudre des problèmes concrets dans divers secteurs d'activité. Jim Griffin, animateur du podcast AI Master Group, a parlé d'un projet qui utilise les modèlesYOLOv8 pour surveiller les mouvements des requins le long du littoral californien grâce à la surveillance par drone. Le système alerte les sauveteurs, les propriétaires de magasins de surf et les parents, assurant ainsi la sécurité des plagistes en détectant les requins à 200 pieds au-dessus de l'océan. Griffin a expliqué que le véritable défi n'était pas le modèle d'IA lui-même, mais les nombreux vols de drones et la collecte de données nécessaires pour entraîner le modèle.
De même, David Scott de The Main Branch a parlé de l'expansion de la vision par ordinateur, de la simple détection d'objets à l'analyse du comportement. Son exposé a présenté des applications réelles telles que le suivi du comportement du bétail et l'identification d'activités suspectes dans les magasins de détail. Scott a expliqué comment YOLOv8 peut être utilisé pour surveiller la santé du bétail en analysant des comportements spécifiques, tels que manger, boire et marcher.
Par ailleurs, Ousman Umar, de NASCO Feeding Minds, a présenté un discours particulièrement émouvant, dans lequel il a expliqué comment son organisation changeait des vies en dispensant une formation en informatique au Ghana. Sa fondation a mis en place 17 centres de TIC, formant plus de 65 000 étudiants, dans le but de créer des emplois locaux dans le domaine de la technologie pour aider à résoudre des problèmes tels que l'immigration clandestine. L'histoire puissante d'Umar a montré comment l 'éducation et la technologie peuvent, ensemble, conduire à un changement durable dans les communautés mal desservies.
YV24 a également proposé différentes conférences axées sur la façon dont l'IA et le matériel informatique se rejoignent pour susciter de nouvelles idées. Des experts d'entreprises telles que IntelSony et NVIDIA ont abordé le déploiement des modèles YOLO sur les appareils périphériques et l'optimisation des performances. Dmitriy Pastushenkov et Adrian Boguszewski de Intel ont expliqué comment leur matériel prend en charge les modèles YOLO sur NPU, CPU, et GPU, tandis qu'Amir Servi et Wei Tang de Sony ont partagé la façon dont YOLO s'intègre à la plateforme AITRIOS pour un déploiement efficace de l'IA en périphérie. Guy Dahan de NVIDIA a parlé de l'utilisation de leur architecture GPU pour améliorer l'inférence des modèles YOLO .
D'autres entreprises comme Qualcomm, Hugging Faceet Lightning AIont également montré comment leurs plateformes facilitent l'intégration et le déploiement des modèles YOLO par les développeurs. Devang Aggarwal de Qualcomm a présenté comment des modèles tels que YOLOv8 peuvent être optimisés pour les appareils Snapdragon grâce au Qualcomm AI Hub.
De même, Pavel Lakubovskii de Hugging Face a décrit comment leurs outils open-source permettent une intégration transparente de modèles comme YOLOv8 dans divers flux de travail, tandis que Luca Antiga de Lightning AI nous a expliqué comment les développeurs peuvent facilement incorporer des modèles comme YOLOv8 au niveau du code pour un prototypage et des itérations plus rapides.
Au cours de la semaine précédant YV24, l'équipe de Ultralytics s'est réunie à Madrid pour un mélange d'ateliers, de réunions de collaboration et d'activités hors site. Ces activités sont allées au-delà du travail, ont permis de renforcer les relations et de créer une atmosphère positive avant l'événement. Les participants et les conférenciers ont eu l'occasion de faire du réseautage, de partager des idées clés et d'explorer de futures collaborations. La combinaison du travail d'équipe et de la camaraderie a fait de YV24 un succès professionnel et une expérience mémorable.
YV24 a rassemblé l'innovation, la collaboration et un regard sur l'avenir de la vision par ordinateur. Avec le lancement de YOLO11, des panels captivants et des discussions sur le matériel d'IA et les solutions de pointe, l'événement s'est concentré sur la façon dont l'IA de vision peut faire la différence et sur la façon dont la technologie évolue pour suivre les progrès de l'IA. Il a également permis de renforcer les liens au sein de la communauté. Experts et passionnés ont échangé des idées et exploré le potentiel de la vision par ordinateur et de YOLO. L'événement s'est terminé par une session de quiz amusante, au cours de laquelle des sweats à capuche Ultralytics étaient à gagner, laissant tout le monde enthousiaste à l'idée d'autres innovations comme YOLO11 à l'avenir.
Visite notre dépôt GitHub et connecte-toi à notre communauté florissante pour en savoir plus sur l'IA. Vois comment Vision AI redéfinit l'innovation dans des secteurs comme la santé et l'agriculture. 🚀
Commence ton voyage avec le futur de l'apprentissage automatique.