Contrôle vert
Lien copié dans le presse-papiers

Intégrer la vision artificielle dans la robotique avec Ultalytics YOLO11

Regarde de plus près comment les modèles de vision par ordinateur comme Ultralytics YOLO11 rendent les robots plus intelligents et façonnent l'avenir de la robotique.

Les robots ont parcouru un long chemin depuis Unimate, le premier robot industriel, inventé dans les années 1950. Ce qui a commencé comme des machines préprogrammées, basées sur des règles, a maintenant évolué vers des systèmes intelligents capables d'effectuer des tâches complexes et d'interagir de façon transparente avec le monde réel. 

Aujourd'hui, les robots sont utilisés dans tous les secteurs, de la fabrication à la santé, en passant par l'agriculture, pour divers processus d'automatisation. L'un des facteurs clés de l'évolution de la robotique est l'IA et la vision par ordinateur, une branche de l'IA qui aide les machines à comprendre et à interpréter les informations visuelles.

Par exemple, les modèles de vision par ordinateur comme Ultralytics YOLO11 améliorent l'intelligence des systèmes robotiques. Lorsqu'elle est intégrée à ces systèmes, Vision AI permet aux robots de reconnaître des objets, de naviguer dans des environnements et de prendre des décisions en temps réel.

Dans cet article, nous allons voir comment YOLO11 peut améliorer les robots avec des capacités de vision par ordinateur avancées et explorer ses applications dans divers secteurs d'activité.

Un aperçu de l'IA et de la vision artificielle en robotique

La fonctionnalité principale d'un robot dépend de la façon dont il comprend son environnement. Cette conscience relie son matériel physique à une prise de décision intelligente. Sans elle, les robots ne peuvent que suivre des instructions fixes et peinent à s'adapter à des environnements changeants ou à gérer des tâches complexes. Tout comme les humains s'appuient sur la vue pour naviguer, les robots utilisent la vision par ordinateur pour interpréter leur environnement, comprendre la situation et prendre les mesures appropriées.

Fig 1. Un robot jouant à un jeu de Tic-Tac-Toe en utilisant la vision par ordinateur pour interpréter le plateau et effectuer des mouvements stratégiques.

En fait, la vision par ordinateur est fondamentale pour la plupart des tâches robotiques. Elle aide les robots à détecter les objets et à éviter les obstacles lorsqu'ils se déplacent. Cependant, pour ce faire, voir le monde ne suffit pas ; les robots doivent également être capables de réagir rapidement. Dans les situations réelles, même un léger retard peut entraîner des erreurs coûteuses. Des modèles comme Ultralytics YOLO11 permettent aux robots de recueillir des informations en temps réel et de réagir instantanément, même dans des situations complexes ou peu familières.

Faire connaissance avec Ultralytics YOLO11

Avant de nous plonger dans la façon dont YOLO11peut être intégré dans les systèmes robotiques, explorons d'abord les principales caractéristiques de YOLO11.

Les modèlesYOLO d'Ultralytics prennent en charge diverses tâches de vision par ordinateur qui permettent d'obtenir rapidement des informations en temps réel. Ultralytics YOLO11 offre notamment des performances plus rapides, des coûts de calcul réduits et une meilleure précision. Par exemple, il peut être utilisé pour détecter des objets dans des images et des vidéos avec une grande précision, ce qui le rend parfait pour des applications dans des domaines tels que la robotique, la santé et la fabrication. 

Voici quelques caractéristiques impactantes qui font de YOLO11 une excellente option pour la robotique :

  • Facilité de déploiement : Il est facile à déployer et s'intègre parfaitement à un large éventail de plateformes logicielles et matérielles.
  • Adaptabilité : YOLO11 fonctionne bien dans différents environnements et configurations matérielles, offrant des performances constantes même dans des conditions dynamiques.

Convivialité : la documentation et l'interface faciles à comprendre deYOLO11permettent de réduire la courbe d'apprentissage, ce qui facilite son intégration dans les systèmes robotiques.

Fig 2. Exemple d'analyse de la pose des personnes sur une image à l'aide de YOLO11.

Explorer les tâches de vision par ordinateur rendues possibles par YOLO11

Voici un examen plus approfondi de certaines des tâches de vision par ordinateur prises en charge par YOLO11 : 

  • Détection d'objets: La capacité de détection d'objets en temps réel de YOLO11 permet aux robots d'identifier et de localiser instantanément les objets qui se trouvent dans leur champ de vision. Cela aide les robots à éviter les obstacles, à effectuer une planification dynamique du chemin et à réaliser une navigation automatisée dans les environnements intérieurs et extérieurs.
  • Segmentation des instances: En identifiant les limites et les formes exactes des objets individuels, YOLO11 équipe les robots pour qu'ils effectuent des opérations précises de pick-and-place et des tâches d'assemblage complexes.
  • Estimation de la pose: La prise en charge de l'estimation de la pose par YOLO11permet aux robots de reconnaître et d'interpréter les mouvements et les gestes du corps humain. Elle est cruciale pour que les robots collaboratifs (cobots) puissent travailler en toute sécurité aux côtés des humains.
  • Suivi des objets: YOLO11 permet de suivre des objets en mouvement dans le temps, ce qui le rend idéal pour les applications liées à la robotique autonome qui doivent surveiller leur environnement en temps réel.
  • Classification d'images: YOLO11 peut classer les objets dans les images, ce qui permet aux robots de catégoriser les articles, de détecter les anomalies ou de prendre des décisions basées sur les types d'objets, comme l'identification des fournitures médicales dans les établissements de santé.
Fig 3. Tâches de vision par ordinateur prises en charge par YOLO11.

L'IA dans les applications robotiques : Propulsé par YOLO11

De l'apprentissage intelligent à l'automatisation industrielle, des modèles comme YOLO11 peuvent aider à redéfinir ce que les robots peuvent faire. Son intégration dans la robotique montre comment les modèles de vision par ordinateur sont à l'origine des progrès de l'automatisation. Explorons quelques domaines clés dans lesquels YOLO11 peut avoir un impact significatif.

Apprendre aux robots à l'aide de la vision par ordinateur 

La vision par ordinateur est largement utilisée dans les robots humanoïdes, ce qui leur permet d'apprendre en observant leur environnement. Des modèles comme YOLO11 peuvent contribuer à améliorer ce processus en fournissant une détection avancée des objets et une estimation de la pose, ce qui aide les robots à interpréter avec précision les actions et les comportements humains.

En analysant les mouvements subtils et les interactions en temps réel, les robots peuvent être entraînés à reproduire des tâches humaines complexes. Ils peuvent ainsi aller au-delà des routines préprogrammées et apprendre des tâches, telles que l'utilisation d'une télécommande ou d'un tournevis, simplement en observant une personne.

Fig 4. Un robot imitant l'action d'un humain.

Ce type d'apprentissage peut être utile dans différents secteurs. Par exemple, dans l'agriculture, les robots peuvent regarder les travailleurs humains apprendre des tâches comme la plantation, la récolte et la gestion des cultures. En copiant la façon dont les humains effectuent ces tâches, les robots peuvent s'adapter à différentes conditions agricoles sans avoir besoin d'être programmés pour chaque situation.

Applications liées à la robotique médicale

De même, dans le domaine de la santé, la vision par ordinateur devient de plus en plus importante. Par exemple, YOLO11 peut être utilisé dans les appareils médicaux pour aider les chirurgiens à effectuer des procédures complexes. Grâce à des fonctions telles que la détection d'objets et la segmentation d'instances, YOLO11 peut aider les robots à repérer les structures internes du corps, à gérer les outils chirurgicaux et à effectuer des mouvements précis.

Bien que cela puisse sembler sortir de la science-fiction, des recherches récentes démontrent l'application pratique de la vision par ordinateur dans les procédures chirurgicales. Dans une étude intéressante sur la dissection robotique autonome pour la cholécystectomie (ablation de la vésicule biliaire), les chercheurs ont intégré YOLO11 pour la segmentation des tissus (classification et séparation des différents tissus dans une image) et la détection des points clés des instruments chirurgicaux (identification de points de repère spécifiques sur les outils). 

Le système a été capable de distinguer avec précision les différents types de tissus - même lorsque les tissus se déformaient (changeaient de forme) au cours de l'intervention - et de s'adapter dynamiquement à ces changements. Les instruments robotiques ont ainsi pu suivre des trajectoires de dissection (coupe chirurgicale) précises.

Fabrication intelligente et automatisation industrielle

Les robots capables de prélever et de placer des objets jouent un rôle clé dans l'automatisation des opérations de fabrication et l'optimisation des chaînes d'approvisionnement. Leur vitesse et leur précision leur permettent d'effectuer des tâches avec un minimum d'intervention humaine, comme l'identification et le tri des articles. 

Grâce à la segmentation précise des instances de YOLO11, les bras robotiques peuvent être entraînés à détecter et à segmenter les objets qui se déplacent sur un tapis roulant, à les ramasser avec précision et à les placer à des endroits désignés en fonction de leur type et de leur taille.

Par exemple, les constructeurs automobiles populaires utilisent des robots basés sur la vision pour assembler différentes pièces de voiture, améliorant ainsi la vitesse et la précision de la chaîne de montage. Les modèles de vision par ordinateur comme YOLO11 peuvent permettre à ces robots de travailler aux côtés des travailleurs humains, assurant ainsi une intégration transparente des systèmes automatisés dans des environnements de production dynamiques. Cette avancée peut conduire à des temps de production plus rapides, à moins d'erreurs et à des produits de meilleure qualité.

Fig 5. Un bras robotique basé sur la vision qui assemble une voiture.

Avantages de l'intégration d'Ultralytics YOLO11 dans la robotique

YOLO11 offre plusieurs avantages clés qui le rendent idéal pour une intégration transparente dans les systèmes robotiques autonomes. Voici quelques-uns des principaux avantages :

  • Faible latence d'inférence: YOLO11 peut fournir des prédictions très précises avec une faible latence, même dans des environnements dynamiques.
  • Modèles légers: Conçus pour optimiser les performances, les modèles légers de YOLO11permettent aux petits robots dotés d'une puissance de traitement moindre de disposer de capacités de vision avancées sans sacrifier l'efficacité.
  • Efficacité énergétique : YOLO11 est conçu pour être économe en énergie, ce qui le rend idéal pour les robots alimentés par batterie qui ont besoin d'économiser de l'énergie tout en maintenant des performances élevées.

Limites de l'IA de vision en robotique

Bien que les modèles de vision par ordinateur constituent des outils puissants pour la vision robotique, il y a certaines limites à prendre en compte lorsqu'on les intègre dans des systèmes robotiques du monde réel. Certaines de ces limites sont :

  • Collecte de données coûteuse: La formation de modèles efficaces pour les tâches spécifiques aux robots nécessite souvent des ensembles de données importants, diversifiés et bien étiquetés, dont l'acquisition est coûteuse.
  • Variations environnementales: Les robots travaillent dans des environnements imprévisibles, où des facteurs tels que les conditions d'éclairage ou les arrière-plans encombrés peuvent affecter les performances des modèles de vision.
  • Problèmes d'étalonnage et d'alignement : S'assurer que les systèmes de vision sont correctement calibrés et alignés avec les autres capteurs du robot est essentiel pour obtenir des performances précises, et un mauvais alignement peut entraîner des erreurs dans la prise de décision.

L'avenir des progrès de la robotique et de l'IA

Les systèmes de vision par ordinateur ne sont pas seulement des outils pour les robots d'aujourd'hui ; ce sont des éléments constitutifs d'un avenir où les robots pourront fonctionner de façon autonome. Grâce à leurs capacités de détection en temps réel et à la prise en charge de tâches multiples, ils sont parfaits pour la robotique de la prochaine génération.

En fait, les tendances actuelles du marché montrent que la vision par ordinateur devient de plus en plus essentielle dans la robotique. Les rapports industriels soulignent que la vision par ordinateur est la deuxième technologie la plus utilisée sur le marché mondial de la robotique d'IA. 

Fig 6. Part du marché mondial des robots d'IA par technologie.

Principaux enseignements

Grâce à sa capacité à traiter les données visuelles en temps réel, YOLO11 peut aider les robots à détecter, identifier et interagir avec leur environnement de manière plus précise. Cela fait une énorme différence dans des domaines tels que la fabrication, où les robots peuvent collaborer avec les humains, et la santé, où ils peuvent assister à des opérations chirurgicales complexes. 

Alors que la robotique continue de progresser, l'intégration de la vision par ordinateur dans ces systèmes sera cruciale pour permettre aux robots de gérer un large éventail de tâches plus efficacement. L'avenir de la robotique est prometteur, l'IA et la vision par ordinateur permettant de créer des machines encore plus intelligentes et plus adaptables.

Rejoins notre communauté et consulte notre dépôt GitHub pour en savoir plus sur les développements récents en matière d'IA. Explore diverses applications de l'IA dans les soins de santé et de la vision par ordinateur dans l'agriculture sur nos pages de solutions. Consulte nos plans de licence pour créer tes propres solutions de vision par ordinateur.

Logo FacebookLogo de TwitterLogo LinkedInSymbole du lien de copie

Lire la suite dans cette catégorie

Construisons ensemble le futur
de l'IA !

Commence ton voyage avec le futur de l'apprentissage automatique.