Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Justesse

Maîtrisez la précision dans l'apprentissage automatique. Apprenez à calculer et à améliorer la précision des modèles, à réduire les faux positifs et à évaluer les performances Ultralytics .

La précision est une mesure fondamentale en science des données utilisée pour évaluer les performances des modèles de classification. Elle mesure la qualité des prédictions positives en déterminant la proportion d'identifications vraies positives parmi toutes les instances que le modèle a prédites comme positives. Dans le domaine de l' apprentissage automatique (ML), la précision répond à la question cruciale suivante : « Lorsque le modèle affirme avoir trouvé un objet, à quelle fréquence est-il correct ? » Une précision élevée indique qu'un algorithme produit très peu de faux positifs, ce qui signifie que le système est hautement fiable lorsqu'il signale un événement ou détecte un élément. Cet indicateur est particulièrement important dans les scénarios où le coût d'une fausse alerte est élevé, ce qui exige que les agents IA agissent avec certitude.

Différencier la précision, la sensibilité et l'exactitude

Pour bien comprendre les performances d'un modèle, il est essentiel de distinguer la précision des termes statistiques connexes. Bien qu' ils soient souvent utilisés de manière interchangeable dans le langage courant, ils ont des significations techniques distinctes dans le domaine de la vision par ordinateur (CV) et de l'analyse.

  • Précision vs. Rappel : ces deux mesures sont souvent liées. Alors que la précision se concentre sur l'exactitude des prédictions positives, le rappel (également appelé sensibilité) mesure la capacité du modèle à trouver tous les exemples pertinents dans l'ensemble de données. Un modèle optimisé uniquement pour la précision peut manquer certains objets (rappel plus faible) afin de garantir que tout ce qu' il détecte est correct. À l'inverse, un rappel élevé garantit peu d'objets manqués, mais peut entraîner davantage de fausses alertes. Le score F1 est souvent utilisé pour calculer la moyenne harmonique des deux, offrant ainsi une vision équilibrée.
  • Précision vs exactitude : l'exactitude est le rapport entre les prédictions correctes (positives et négatives) et le nombre total de prédictions. Cependant, l'exactitude peut être trompeuse dans les ensembles de données déséquilibrés. Par exemple, dans un système de détection des fraudes où 99 % des transactions sont légitimes, un modèle qui prédit simplement « légitime » à chaque fois serait exact à 99 % , mais aurait une précision nulle pour détecter les fraudes.

Applications concrètes

Les exigences spécifiques d'un secteur d'activité dictent souvent si les développeurs privilégient la précision par rapport à d'autres indicateurs. Voici des exemples concrets où une grande précision est primordiale :

  • Prévention des pertes dans le commerce de détail : dans le domaine de l'IA appliquée au commerce de détail, les systèmes de caisse automatisés utilisent la détection d'objets pour identifier les articles. Si un système est peu précis, il peut signaler à tort le sac personnel d'un client comme un article volé (faux positif). Cela entraîne une expérience client négative et des problèmes juridiques potentiels. Une haute précision garantit que la sécurité n'est alertée qu'en cas de très forte probabilité de vol, ce qui permet de maintenir la confiance dans le système d'alarme de sécurité.
  • Contrôle qualité de la fabrication : dans le cadre de la fabrication intelligente, des systèmes de vision inspectent les chaînes de montage à la recherche de défauts. Un modèle peu précis pourrait classify des pièces classify comme défectueuses, ce qui entraînerait leur mise au rebut inutile. Ce gaspillage augmente les coûts et réduit l'efficacité. En optant pour une grande précision, les fabricants s'assurent que seuls les articles réellement défectueux sont retirés, optimisant ainsi la chaîne de production. Vous pouvez découvrir comment Ultralytics YOLO26 facilite ces tâches industrielles en réduisant les faux rejets.

Améliorer la précision dans la vision par ordinateur

Les développeurs peuvent employer plusieurs stratégies pour améliorer la précision de leurs modèles. Une méthode courante consiste à ajuster le seuil de confiance pendant l'inférence. En exigeant un score de confiance plus élevé avant d'accepter une prédiction, le modèle filtre les détections incertaines, réduisant ainsi les faux positifs.

Une autre technique consiste à affiner les données d'entraînement. L'ajout d'« échantillons négatifs », c'est-à-dire d'images qui ne contiennent pas l'objet recherché mais qui lui ressemblent quelque peu, aide le modèle à apprendre à distinguer la cible du bruit de fond. L'utilisation Ultralytics simplifie ce processus en permettant aux équipes de sélectionner des ensembles de données, de visualiser les prédictions du modèle et d'identifier les images spécifiques avec lesquelles le modèle a des difficultés. De plus, une augmentation efficace des données peut exposer le modèle à des environnements plus variés, le rendant plus robuste face à des éléments visuels prêtant à confusion.

Calculer la précision avec Ultralytics YOLO

Lorsque vous travaillez avec des architectures modernes de détection d'objets telles que YOLO26, la précision est calculée automatiquement pendant la phase de validation. Python suivant montre comment charger un modèle et récupérer ses mesures de performance, y compris la précision, à l'aide de la fonction val mode.

from ultralytics import YOLO

# Load a pretrained YOLO26 model
model = YOLO("yolo26n.pt")

# Validate the model on the COCO8 dataset to calculate metrics
metrics = model.val(data="coco8.yaml")

# Access and print the mean Precision (P) score
# The results dictionary contains keys for various metrics
print(f"Mean Precision: {metrics.results_dict['metrics/precision(B)']:.4f}")

Dans ce flux de travail, le modèle évalue ses prédictions par rapport aux étiquettes de vérité terrain dans l'ensemble de données. Le score obtenu fournit une référence directe de la précision des détections du modèle. Pour les projets complexes, il est essentiel de surveiller ces métriques au fil du temps à l'aide d'outils tels que TensorBoard ou Ultralytics afin de garantir la fiabilité du système lorsque de nouvelles données sont introduites.

Concepts connexes dans l'évaluation des modèles

  • Intersection over Union (IoU) : métrique utilisée pour évaluer le chevauchement entre le rectangle de sélection prédit et la vérité terrain. Une détection n'est considérée comme un « vrai positif » que si l' IoU dépasse un certain seuil
  • Courbe précision-rappel : visualisation qui représente la précision en fonction du rappel pour différents seuils. Cette courbe aide les ingénieurs à visualiser le compromis et à sélectionner le point de fonctionnement optimal pour leur application spécifique, comme détaillé dans les ressources standard d'apprentissage statistique.
  • Précision moyenne (mAP) : une mesure globale qui calcule la précision moyenne pour toutes les classes et tous IoU . Il s'agit de la référence standard pour comparer des modèles sur des ensembles de données tels que COCO ou ImageNet.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant