Glossaire

Précision moyenne (mAP)

Découvre l'importance de la précision moyenne (mAP) dans l'évaluation des modèles de détection d'objets pour les applications d'IA comme la conduite autonome et les soins de santé.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

La précision moyenne (mAP) est une mesure largement utilisée pour évaluer les performances des modèles de détection d'objets, tels que le modèle populaire Ultralytics YOLO très prisés. Elle fournit un score unique et complet qui résume la capacité d'un modèle à identifier et à localiser correctement des objets dans différentes classes et différents niveaux de confiance. Contrairement aux mesures plus simples, le mAP équilibre efficacement le compromis entre la recherche de tous les objets pertinents (rappel) et la garantie que les objets trouvés sont effectivement corrects (précision), ce qui le rend crucial pour l'évaluation des modèles utilisés dans des applications complexes telles que les systèmes autonomes et les diagnostics médicaux.

Comprendre les bases : Précision et rappel

Pour comprendre le mAP, il est essentiel de saisir d'abord la précision et le rappel. Dans la détection d'objets :

  • Précision : Mesure le nombre d'objets détectés qui sont effectivement corrects. Une précision élevée signifie que le modèle fait peu de fausses détections positives.
  • Rappel : Mesure le nombre d'objets présents correctement détectés par le modèle. Un rappel élevé signifie que le modèle trouve la plupart des objets pertinents, minimisant ainsi les faux négatifs.

Ces deux mesures ont souvent une relation inverse ; améliorer l'une peut parfois diminuer l'autre. mAP permet d'évaluer le modèle à différents points de ce compromis. Tu peux en savoir plus sur les principes fondamentaux de la précision et du rappel sur Wikipédia.

Comment la mAP est-elle calculée ?

Le calcul de mAP comporte plusieurs étapes. Tout d'abord, pour chaque classe d'objets, les prédictions du modèle sont triées en fonction de leur score de confiance. Ensuite, une courbe de précision-rappel est générée en calculant les valeurs de précision et de rappel à différents seuils de confiance. L'aire sous cette courbe (AUC) donne la précision moyenne (AP) pour cette classe spécifique. Enfin, le mAP est calculé en faisant la moyenne des valeurs AP pour toutes les classes d'objets de l'ensemble de données.

Souvent, le mAP est rapporté à des seuils spécifiques d'Intersection over Union (IoU), qui mesurent à quel point la boîte de délimitation prédite se superpose à la boîte de vérité terrain. Les variantes les plus courantes sont les suivantes :

  • mAP@0.5 : Calculé en utilisant un seuil de référence de 0,5. Il s'agit d'une mesure standard souvent utilisée dans des tests comme PASCAL VOC.
  • mAP@0.5:0.95 : La moyenne du mAP calculée sur plusieurs seuils de l'IoU (de 0,5 à 0,95, généralement par étapes de 0,05). Il s'agit de la principale mesure utilisée par l'ensemble de données COCO, qui fournit une évaluation plus stricte de la précision de la localisation.

Pour voir en détail comment ces mesures s'appliquent aux modèles YOLO , consulte le guide des mesures de performanceYOLO .

Pourquoi mAP est important

La précision moyenne est essentielle car elle offre une vision holistique des performances d'un modèle de détection d'objets. Elle tient compte à la fois de la précision de la classification (la classe de l'objet est-elle correcte ?) et de la précision de la localisation (la boîte englobante est-elle placée correctement ?) pour toutes les classes. Il est donc plus instructif que la seule précision ou le seul rappel, en particulier dans les ensembles de données comportant plusieurs catégories d'objets ou des distributions de classes déséquilibrées. Un score mAP plus élevé indique généralement un modèle de détection d'objets plus robuste et plus fiable. L'amélioration du mAP implique souvent des techniques telles que l'ajustement des hyperparamètres et l'utilisation de meilleures données d'entraînement.

Applications dans le monde réel

La mAP est essentielle à l'évaluation des modèles pour les tâches du monde réel où la précision est primordiale :

  • Véhicules autonomes : Les voitures autonomes doivent détecter de manière fiable les piétons, les autres véhicules, les feux de signalisation et les obstacles. Un score mAP élevé garantit que le système de perception est suffisamment précis pour permettre une navigation en toute sécurité. Explore les solutions d'IA dans la conduite autonome pour voir comment les modèles de détection sont appliqués.
  • Analyse d'images médicales : Dans le domaine de la santé, les modèles qui détectent les tumeurs, les lésions ou d'autres anomalies dans les scanners (comme les rayons X ou les IRM) ont besoin d'un mAP élevé. Cela permet de s'assurer que les diagnostics sont précis, en minimisant à la fois les détections manquées (besoin d'un rappel élevé) et les fausses alarmes (besoin d'une grande précision). En savoir plus sur les applications de l'IA dans le domaine de la santé.

mAP vs. autres métriques

Il est important de distinguer le mAP des mesures d'évaluation connexes :

  • Précision: Bien qu'elle soit utile pour les tâches de classification, la précision est généralement inadaptée à la détection d'objets. Elle ne tient pas compte de la qualité de la localisation et peut être trompeuse sur les ensembles de données présentant une dominance de l'arrière-plan ou un déséquilibre des classes.
  • Intersection sur Union (IoU) : L'IoU mesure le chevauchement entre une seule boîte de délimitation prédite et sa boîte de vérité terrain correspondante. Bien que les seuils de l'IoU soient utilisés dans le calcul du mAP pour déterminer si une détection est correcte, l'IoU lui-même ne fournit pas de score de performance global pour toutes les classes et tous les seuils, comme le fait le mAP. Tu trouveras des informations sur l'utilisation de ces mesures dans le guide sur l'évaluation et l'affinage des modèles.

Outils et repères

Des outils comme Ultralytics HUB permettent aux utilisateurs de former, de suivre et d'évaluer les modèles, en mettant en évidence le mAP comme indicateur de performance clé. Des outils comme PyTorch et TensorFlow fournissent les éléments de base de ces modèles. Des ensembles de données standard comme COCO et PASCAL VOC utilisent mAP comme principale métrique pour comparer les modèles de détection d'objets, ce qui stimule les progrès dans le domaine. Tu peux explorer et comparer les différentes performances des modèles, souvent mesurées par mAP, sur les pages de comparaison des modèlesUltralytics .

Tout lire