X
YOLO Vision 2024 is here!
YOLO Vision 24
27 septembre 2024
YOLO Vision 24
Free hybrid event
Contrôle vert
Lien copié dans le presse-papiers

Applications du modèle Segment Anything Model 2 de Meta AI (SAM 2)

Rejoins-nous pour plonger dans le modèle Segment Anything Model 2 (SAM 2) de Meta AI et comprendre pour quelles applications en temps réel il peut être utilisé dans divers secteurs d'activité.

Le 29 juillet 2024, Meta AI a publié la deuxième version de son modèle Segment Anything, SAM 2. Le nouveau modèle peut déterminer avec précision quels pixels appartiennent à un objet cible dans les images et les vidéos ! Le plus beau, c'est que le modèle est capable de suivre un objet de façon cohérente sur toutes les images d'une vidéo en temps réel. SAM 2 ouvre des possibilités passionnantes pour le montage vidéo, les expériences de réalité mixte et l'annotation plus rapide des données visuelles pour l'entraînement des systèmes de vision par ordinateur.

S'appuyant sur le succès de l'original SAM, qui a été utilisé dans des domaines tels que les sciences marines, l'imagerie satellite et la médecine, SAM 2 s'attaque à des défis tels que les objets qui se déplacent rapidement et les changements d'apparence. Sa précision et son efficacité accrues en font un outil polyvalent pour un grand nombre d'applications. Dans cet article, nous nous concentrerons sur les domaines d'application deSAM 2 et sur les raisons de son importance pour la communauté de l'IA.

Qu'est-ce que SAM 2 ?

Le modèle Segment Anything Model 2 est un modèle de base avancé qui prend en charge la segmentation visuelle avec invite ou PVS dans les images et les vidéos. La PVS est une technique qui permet à un modèle de segmenter ou d'identifier différentes parties d'une image ou d'une vidéo en fonction d'invites ou d'entrées spécifiques données par l'utilisateur. Ces invites peuvent prendre la forme de clics, de cases ou de masques qui mettent en évidence la zone d'intérêt. Le modèle génère alors un masque de segmentation qui délimite la zone spécifiée.

L'architecture de SAM 2 s'appuie sur l'architecture originale de SAM en élargissant la segmentation des images à la segmentation des vidéos. Elle comporte un décodeur de masque léger qui utilise les données de l'image et les invites pour créer des masques de segmentation. Pour les vidéos, SAM 2 introduit un système de mémoire qui l'aide à se souvenir des informations des images précédentes, assurant ainsi un suivi précis dans le temps. Le système de mémoire comprend des composants qui stockent et rappellent des détails sur les objets en cours de segmentation. SAM 2 peut également gérer les occlusions, suivre les objets sur plusieurs images et gérer les invites ambiguës en générant plusieurs masques possibles. SAM L'architecture avancée du 2 le rend très performant dans les environnements visuels statiques et dynamiques.

Plus précisément, en ce qui concerne la segmentation vidéo, SAM 2 atteint une plus grande précision avec trois fois moins d'interactions avec l'utilisateur que les méthodes précédentes. Pour la segmentation d'images, SAM 2 surpasse le modèle original Segment Anything Model (SAM), en étant six fois plus rapide et plus précis. Cette amélioration a été présentée dans le document de recherche SAM 2 sur 37 ensembles de données différents, dont 23 sur lesquels SAM avait déjà été testé. 

Fig 1. Comparaison entre SAM et SAM 2.

Il est intéressant de noter que le site SAM 2 de Meta AI a été développé en créant le plus grand ensemble de données de segmentation vidéo à ce jour, l'ensemble de données SA-V. Ce vaste ensemble de données comprend plus de 50 000 vidéos et 35,5 millions de masques de segmentation et a été recueilli grâce aux contributions interactives des utilisateurs. Les annotateurs ont fourni des invites et des corrections pour aider le modèle à apprendre à partir d'une grande variété de scénarios et de types d'objets.

Applications du modèle Segment Anything 2

Grâce à ses capacités avancées en matière de segmentation d'images et de vidéos, SAM 2 peut être utilisé dans divers secteurs d'activité. Explorons quelques-unes de ces applications.

SAM 2 Permet la réalité augmentée (RA) et la réalité virtuelle (RV).

Le nouveau modèle de segmentation de Meta AI peut être utilisé pour les applications de réalité augmentée (AR) et de réalité virtuelle (VR). Par exemple, SAM 2 peut identifier et segmenter avec précision les objets du monde réel et rendre l'interaction avec les objets virtuels plus réaliste. Il peut être utile dans divers domaines comme les jeux, l'éducation et la formation, où une interaction réaliste entre les éléments virtuels et réels est essentielle.

Les appareils tels que les lunettes AR étant de plus en plus perfectionnés, les capacités de SAM 2 pourraient bientôt y être intégrées. Imagine que tu mettes des lunettes et que tu regardes autour de ton salon. Lorsque tes lunettes se segmentent et remarquent la gamelle d'eau de ton chien, elles pourraient te rappeler de la remplir, comme le montre l'image ci-dessous. Ou, si tu prépares une nouvelle recette, les lunettes pourraient identifier les ingrédients sur ton plan de travail et te fournir des instructions et des conseils étape par étape, améliorant ainsi ton expérience culinaire et t'assurant que tu as tous les éléments nécessaires à portée de main.

Fig 2. SAM 2 pourrait bientôt être utilisé dans les lunettes AR.

Imagerie sonar avec le modèle Segment Anything 2

Les recherches menées à l'aide du modèle SAM ont montré qu'il peut être appliqué à des domaines spécialisés tels que l'imagerie sonar. L'imagerie sonar présente des défis uniques en raison de sa faible résolution, des niveaux de bruit élevés et des formes complexes des objets dans les images. En affinant SAM pour les images sonar, les chercheurs ont démontré sa capacité à segmenter avec précision divers objets sous-marins tels que les débris marins, les formations géologiques et d'autres éléments d'intérêt. L'imagerie sous-marine précise et fiable peut être utilisée dans la recherche marine, l'archéologie sous-marine, la gestion des pêches et la surveillance pour des tâches telles que la cartographie de l'habitat, la découverte d'artefacts et la détection des menaces.

Fig 3. Exemple d'utilisation de SAM pour la segmentation d'images sonar.

Étant donné que SAM 2 s'appuie sur de nombreux défis auxquels SAM est confronté et les améliore, il a le potentiel d'améliorer encore l'analyse de l'imagerie sonar. Ses capacités de segmentation précise peuvent être utiles dans diverses applications marines, y compris la recherche scientifique et la pêche. Par exemple, SAM 2 peut délimiter efficacement les structures sous-marines, détecter les débris marins et identifier les objets dans les images sonar orientées vers l'avant, contribuant ainsi à une exploration et une surveillance sous-marines plus précises et plus efficaces.

Voici les avantages potentiels de l'utilisation de SAM 2 pour analyser l'imagerie sonar :

  • Efficacité: Réduit le temps et les efforts nécessaires à la segmentation manuelle, ce qui permet aux professionnels de se concentrer davantage sur l'analyse et la prise de décision.
  • Cohérence : Permet d'obtenir des résultats de segmentation cohérents et reproductibles, ce qui est essentiel pour la recherche et la surveillance marines à grande échelle.
  • Polyvalence : Capable de traiter une large gamme d'images sonar, ce qui le rend utile pour diverses applications dans les sciences marines et l'industrie.

En intégrant SAM 2 dans les processus d'imagerie sonar, l'industrie marine peut atteindre une plus grande efficacité, précision et fiabilité dans l'exploration et l'analyse sous-marines, ce qui permet en fin de compte d'obtenir de meilleurs résultats dans le domaine de la recherche marine.

Utilisation de SAM 2 dans les véhicules autonomes

Une autre application de SAM 2 concerne les véhicules autonomes. SAM 2 peut identifier avec précision et en temps réel des objets tels que les piétons, les autres véhicules, les panneaux de signalisation et les obstacles. Le niveau de détail que SAM 2 peut fournir est essentiel pour prendre des décisions sûres en matière de navigation et d'évitement des collisions. En traitant les données visuelles avec précision, SAM 2 aide à créer une carte détaillée et fiable de l'environnement et permet de prendre de meilleures décisions.

Fig 4. Utilisation de la segmentation pour comprendre le trafic. 

SAM La capacité de 2 à bien fonctionner dans différentes conditions d'éclairage, de changements météorologiques et d'environnements dynamiques le rend fiable pour les véhicules autonomes. Qu'il s'agisse d'une rue urbaine animée ou d'une autoroute brumeuse, SAM 2 peut systématiquement identifier et segmenter les objets avec précision afin que le véhicule puisse réagir correctement à diverses situations. 

Cependant, il faut garder à l'esprit certaines limites. Pour les objets complexes qui se déplacent rapidement, SAM 2 peut parfois manquer de fins détails et ses prédictions peuvent devenir instables d'une image à l'autre. De plus, SAM 2 peut parfois confondre plusieurs objets d'apparence similaire dans des scènes très fréquentées. Ces défis expliquent pourquoi l'intégration de capteurs et de technologies supplémentaires est essentielle dans les applications de conduite autonome.

Surveillance de l'environnement à l'aide de SAM 2

La surveillance de l'environnement à l'aide de la vision par ordinateur peut être délicate, surtout lorsqu'il y a un manque de données annotées, mais c'est aussi ce qui en fait une application intéressante pour SAM 2. SAM 2 peut être utilisé pour suivre et analyser les changements dans les paysages naturels en segmentant et en identifiant avec précision diverses caractéristiques environnementales telles que les forêts, les étendues d'eau, les zones urbaines et les terres agricoles à partir d'images satellite ou de drone. Plus précisément, une segmentation précise aide à surveiller la déforestation, l'urbanisation et les changements dans l'utilisation des terres au fil du temps afin de fournir des données précieuses pour la conservation et la planification de l 'environnement.

Fig 5. Un exemple d'utilisation de la segmentation pour surveiller la déforestation.

Voici quelques-uns des avantages de l'utilisation d'un modèle comme SAM 2 pour analyser les changements environnementaux au fil du temps :

  • Détection précoce : Identifie les signes précoces de la dégradation de l'environnement, ce qui permet d'intervenir à temps pour éviter que les dégâts ne s'aggravent.
  • Gestion des ressources : Aide à gérer efficacement les ressources naturelles en fournissant des informations détaillées sur l'état des différentes caractéristiques environnementales.
  • Conservation de la biodiversité : Aide au suivi de la faune et à la surveillance de la biodiversité, contribuant ainsi aux efforts de conservation et à la protection des espèces menacées.
  • Réponse aux catastrophes : Aide à évaluer l'impact des catastrophes naturelles telles que les inondations, les incendies de forêt et les ouragans, ce qui permet une réponse rapide et efficace aux catastrophes et une planification de la reprise.

Montage vidéo avec SAM 2 : Essaie-le toi-même

La démo Segmenter n'importe quoi 2 est un excellent moyen d'essayer le modèle sur une vidéo. En utilisant les capacités PVS de SAM 2, nous avons pris une vieille vidéo YouTubeUltralytics et nous avons pu segmenter trois objets ou personnes dans la vidéo et les pixelliser. Traditionnellement, l'édition de trois individus dans une telle vidéo prendrait beaucoup de temps et serait fastidieuse, et nécessiterait un masquage manuel image par image. Cependant, SAM 2 simplifie ce processus. En quelques clics sur la démo, tu peux protéger l'identité de trois objets d'intérêt en quelques secondes.

Fig 6. Essai de la démo SAM 2. 

La démo te permet également d'essayer quelques effets visuels différents, comme mettre un projecteur sur les objets que tu sélectionnes pour le suivi et effacer les objets suivis. Si tu as aimé la démo et que tu es prêt à commencer à innover avec SAM 2, consulte la pageUltralytics SAM 2 model docs pour obtenir des instructions détaillées sur la façon de mettre le modèle en pratique. Explore les fonctionnalités, les étapes d'installation et les exemples pour tirer pleinement parti du potentiel de SAM 2 dans tes projets !

Pour conclure

Le modèle Segment Anything Model 2 (SAM 2) de Meta AI transforme la segmentation des vidéos et des images. À mesure que des tâches comme le suivi d'objets s'améliorent, nous découvrons de nouvelles opportunités dans le montage vidéo, la réalité mixte, la recherche scientifique et l'imagerie médicale. En facilitant les tâches complexes et en accélérant les annotations, SAM 2 est tout à fait prêt à devenir un outil important pour la communauté de l'IA. En continuant d'explorer et d'innover avec des modèles comme SAM 2, nous pouvons nous attendre à des applications encore plus révolutionnaires et à des avancées dans divers domaines !

Apprends à en savoir plus sur l'IA en explorant notre dépôt GitHub et en rejoignant notre communauté. Consulte nos pages sur les solutions pour obtenir un aperçu détaillé de l'IA dans les secteurs de la fabrication et de la santé. 🚀

Logo FacebookLogo de TwitterLogo LinkedInSymbole du lien de copie

Lire la suite dans cette catégorie

Construisons ensemble le futur
de l'IA !

Commence ton voyage avec le futur de l'apprentissage automatique.