Contrôle vert
Lien copié dans le presse-papiers

Tout ce que tu dois savoir sur Ultralytics YOLO11 et ses applications

Découvre le nouveau modèle Ultralytics YOLO11, ses caractéristiques et ses applications en temps réel dans divers secteurs d'activité. Nous t'expliquons tout ce que tu dois savoir.

Le lundi 30 septembre, Ultralytics a officiellement lancé Ultralytics YOLO11, la dernière avancée en matière de vision par ordinateur, après ses débuts à YOLO Vision 2024 (YV24), Ultralytics' événement hybride annuel. La communauté de l'IA est en ébullition, car elle s'empresse d'explorer les capacités du modèle. Avec un traitement plus rapide, une plus grande précision et des modèles optimisés à la fois pour les appareils de périphérie et le déploiement dans le cloud, YOLO11 redéfinit ce qui est possible dans les applications de vision par ordinateur en temps réel.

Lors d'une interview, Glenn Jocher, fondateur et PDG de Ultralytics , a déclaré : "Le monde évolue vers l'énergie propre, mais pas assez vite. Nous voulons que nos modèles puissent être entraînés en moins d'époques, avec moins d'augmentations et moins de données, c'est pourquoi nous travaillons dur sur ce point. Le plus petit modèle de détection d'objets, YOLO11n, n'a que 2,6 millions de paramètres, soit à peu près la taille d'un JPEG, ce qui est vraiment fou. Le plus grand modèle de détection d'objets, YOLO11x, a environ 56 millions de paramètres, et même cela est incroyablement petit comparé à d'autres modèles. Tu peux les entraîner sur un GPU bon marché, comme un Nvidia GPU de cinq ans, avec juste un peu d'excitation et un peu de café."

Dans cet article, nous allons nous intéresser de plus près à YOLO11, en explorant ses caractéristiques, ses améliorations, ses benchmarks de performance et ses applications réelles pour t'aider à comprendre ce que ce modèle peut faire. Commençons !

Comprendre YOLO11 : améliorations par rapport aux versions précédentes

YOLO11 est la dernière avancée dans la série de modèles de vision par ordinateur YOLO (You Only Look Once) et il offre des améliorations significatives par rapport aux versions précédentes telles que YOLOv5 et YOLOv8. L'équipe de Ultralytics a intégré les commentaires de la communauté et les recherches de pointe pour rendre YOLO11 plus rapide, plus précis et plus efficace. YOLO11 prend également en charge les mêmes tâches de vision par ordinateur que YOLOv8, y compris la détection d'objets, la segmentation d'instances et la classification d'images. En fait, les utilisateurs peuvent facilement passer à YOLO11 sans avoir à modifier leurs processus de travail existants.

L'un des principaux points forts de YOLO11 est sa performance supérieure en termes de précision et de vitesse par rapport à ses prédécesseurs. Avec 22 % de paramètres en moins que YOLOv8m, YOLO11m atteint une précision moyenne plus élevée (mAP) sur l'ensemble de données COCO, ce qui signifie qu'il peut détecter des objets avec plus de précision et d'efficacité. En termes de vitesse de traitement, YOLO11 surpasse les modèles précédents, ce qui le rend idéal pour les applications en temps réel, où la rapidité de détection et de réponse est essentielle, et où chaque milliseconde compte.

Le graphique d'analyse comparative ci-dessous illustre la façon dont YOLO11 se démarque des modèles précédents. Sur l'axe horizontal, il montre la précision moyenne (AP) de la boîte COCO, qui mesure la précision de la détection des objets. L'axe vertical affiche la latence en utilisant TensorRT10 FP16 sur un NVIDIA T4 GPU, indiquant la vitesse à laquelle le modèle traite les données. 

Fig 1. YOLO11 offre des capacités de pointe en matière de détection d'objets en temps réel.

Lancement du modèle YOLO11 : Open Source et options d'entreprise

Avec le lancement de Ultralytics YOLO11, Ultralytics élargit la série YOLO en proposant à la fois des modèles open-source et des modèles d'entreprise pour répondre à la demande croissante dans tous les secteurs d'activité.

Fig 2. Avec ce lancement, Ultralytics propose 30 nouveaux modèles.

YOLO11 propose cinq tailles de modèles distinctes - Nano, Small, Medium, Large et X. Les utilisateurs peuvent choisir le meilleur modèle en fonction des besoins spécifiques de leur application de vision par ordinateur. Les cinq tailles offrent une grande flexibilité pour des tâches telles que la classification d'images, la détection d'objets, la segmentation d'instances, le suivi, l'estimation de la pose et la détection d'objets par boîtes de délimitation orientées (OBB). Pour chaque taille, il existe un modèle disponible pour chaque tâche, ce qui donne un total de 25 modèles open-source qui constituent le cœur de l'offre de Ultralytics'. Ces modèles sont idéaux pour un large éventail d'applications, des tâches légères sur les appareils périphériques, où le modèle YOLO11n offre une efficacité impressionnante, aux applications à plus grande échelle nécessitant les modèles YOLO11l et YOLO11x.

Pour la première fois, Ultralytics présente des modèles d'entreprise, ce qui marque une étape importante dans notre offre de produits, et nous sommes ravis de partager ces nouvelles innovations avec nos utilisateurs. YOLO11 introduit cinq modèles propriétaires conçus spécifiquement pour les cas d'utilisation commerciale. Ces modèles d'entreprise, qui seront disponibles le mois prochain, sont entraînés sur Ultralytics' nouveau jeu de données propriétaire, composé de plus d'un million d'images, offrant des modèles pré-entraînés plus robustes. Ils sont conçus pour des applications exigeantes et réelles, telles que l'analyse d'images médicales et le traitement d'images satellites, où la détection précise d'objets est cruciale.

Exploration des caractéristiques de la prochaine génération de YOLO11

Maintenant que nous avons discuté de ce que YOLO11 offre, regardons ce qui rend YOLO11 si spécial.

L'un des principaux défis du développement de YOLO11 a été de trouver le bon équilibre entre des priorités concurrentes : rendre les modèles plus petits, plus rapides et plus précis. Comme l'explique Glenn Jocher, fondateur et PDG de Ultralytics', "Travailler sur la recherche et le développement de YOLO est vraiment difficile parce que vous voulez aller dans trois directions différentes : vous voulez rendre les modèles plus petits, vous voulez qu'ils deviennent plus précis, mais vous voulez aussi qu'ils soient plus rapides sur différentes plates-formes comme CPU et GPU. Tous ces intérêts sont contradictoires, il faut donc faire des compromis et choisir où apporter des changements." Malgré ces défis, YOLO11 parvient à un équilibre impressionnant, apportant à la fois des améliorations en termes de vitesse et de précision par rapport aux versions précédentes comme YOLOv8.

Fig 3. Exemple d'utilisation de YOLO11 pour la détection d'objets.

YOLO11 apporte des améliorations substantielles comme l'amélioration de l'extraction des caractéristiques avec une architecture dorsale et de cou repensée, conduisant à une détection plus précise des objets. Le modèle est également optimisé pour la vitesse et l'efficacité, offrant des temps de traitement plus rapides tout en maintenant une grande précision. En plus de ces avantages, YOLO11 est très adaptable à différents environnements, fonctionnant de manière transparente sur les appareils périphériques, les plateformes cloud et les systèmes utilisant les GPU NVIDIA . Cette adaptabilité en fait un choix idéal pour les utilisateurs qui ont besoin d'options de déploiement flexibles sur différentes configurations matérielles, des appareils mobiles aux serveurs à grande échelle.

Applications YOLO11 en temps réel

La polyvalence de YOLO11 en fait un outil fiable dans de nombreux secteurs, en particulier lorsqu'il s'agit de cas d'utilisation complexes. Par exemple, il fonctionne de manière transparente sur les appareils périphériques et peut être utilisé pour des applications nécessitant une analyse en temps réel dans des environnements où la puissance de calcul est limitée. Un excellent exemple est la conduite autonome, où les véhicules doivent prendre des décisions en une fraction de seconde pour assurer la sécurité de tous. YOLO11 aide en détectant et en analysant les objets sur la route, comme les piétons ou les autres voitures, même dans des conditions difficiles telles qu'une faible luminosité ou lorsque les choses sont partiellement cachées. Une détection rapide et précise permet d'éviter les accidents et de s'assurer que les véhicules autopilotés peuvent naviguer en toute sécurité.

Fig 4. Glenn Jocher sur scène à YV24, parlant des applications de YOLO11.

Un autre exemple intéressant de la gamme de YOLO11 est sa capacité à gérer les boîtes de délimitation orientées (OBB). Elle est essentielle pour détecter les objets qui ne sont pas parfaitement alignés. La détection d'objets OBB est une fonctionnalité particulièrement utile dans des secteurs comme l'agriculture, la cartographie et la surveillance, où les images contiennent souvent des objets ayant subi une rotation, comme des cultures ou des bâtiments dans les images aériennes ou satellites. Contrairement aux modèles traditionnels, YOLO11 peut identifier les objets sous n'importe quel angle et fournir des résultats beaucoup plus précis pour les tâches qui exigent de la précision.

YOLO11 pour les développeurs d'IA : Essaie-le toi-même

La prise en main de YOLO11 est simple et accessible, que tu préfères coder ou ne pas coder. Pour travailler avec YOLO11 par le biais du code, tu peux utiliser le paquetageUltralytics Python pour former et déployer facilement des modèles. Si tu préfères une approche sans code, Ultralytics HUB te permet d'essayer YOLO11 en quelques clics.

YOLO11 Code Walk-Through

Pour utiliser YOLO11 avec Python, tu devras d'abord installer le paquet Ultralytics . Selon tes préférences, tu peux le faire à l'aide de pip, conda ou Docker. Pour des instructions détaillées et les meilleures pratiques liées au processus d'installation, ne manque pas de consulter notre guide d'installationUltralytics . Pendant l'installation des paquets requis pour YOLO11, si tu rencontres des difficultés, reporte-toi à notre Guide des problèmes courants pour trouver des solutions et des conseils.

Une fois le paquetage Ultralytics installé, l'utilisation de YOLO11 est très simple. L'extrait de code suivant t'explique comment charger un modèle, l'entraîner, tester ses performances et l'exporter au formatONNX . Pour des exemples plus approfondis et une utilisation plus avancée, n'hésite pas à consulter la documentation officielle Ultralytics , où tu trouveras des guides détaillés et les meilleures pratiques pour tirer le meilleur parti de YOLO11.

Fig 5. Utilisation de YOLO11 à travers le boîtier Ultralytics . 

Pour les utilisateurs qui préfèrent une approche sans code, Ultralytics HUB offre un moyen facile de former et de déployer les modèles YOLO11 en quelques clics. Pour commencer à utiliser HUB, il suffit de créer un compte sur la plateforme Ultralytics HUB, et tu pourras commencer à former et à gérer tes modèles grâce à une interface intuitive.

YOLO11 : Façonner l'avenir de l'IA de la vision

La communauté de l'IA fait constamment progresser le domaine de la vision par ordinateur en s'efforçant de développer des modèles plus rapides et plus précis pour les applications du monde réel. Ultralytics YOLO11 constitue une étape majeure dans cet effort, en apportant une vitesse, une précision et une flexibilité améliorées. Il est conçu pour les applications en temps réel et en périphérie, ce qui le rend idéal pour des secteurs comme la santé et la conduite autonome. Que tu utilises le paquet Ultralytics Python ou le Hub Ultralytics sans code, YOLO11 simplifie les tâches complexes de Vision AI. Il offre de puissantes capacités de vision par ordinateur, ce qui en fait un excellent choix pour les développeurs et les entreprises.

Consulte notre dépôt GitHub et rejoins notre communauté active pour en savoir plus sur l'IA. Explore comment Vision AI stimule l'innovation dans des secteurs tels que la santé et l'agriculture.

Logo FacebookLogo de TwitterLogo LinkedInSymbole du lien de copie

Lire la suite dans cette catégorie

Construisons ensemble le futur
de l'IA !

Commence ton voyage avec le futur de l'apprentissage automatique.