Découvrez comment une matrice de confusion évalue les performances de classification. Explorez les notions de TP, FP, TN et FN afin d'optimiser vos modèles Ultralytics pour une meilleure précision.
Une matrice de confusion est un outil de mesure des performances pour les problèmes de classification dans le domaine de l'apprentissage automatique, où le résultat peut correspondre à deux classes ou plus. Il s'agit d'un tableau présentant quatre combinaisons différentes de valeurs prédites et réelles, qui sert d' élément fondamental pour la visualisation des données dans l' évaluation des modèles. Contrairement à la simple précision, qui peut être trompeuse si l'ensemble de données est déséquilibré, une matrice de confusion fournit une analyse détaillée des erreurs commises par un modèle de vision par ordinateur (CV). En comparant les prédictions aux étiquettes de vérité terrain, les développeurs peuvent déterminer si le système confond deux classes spécifiques ou s'il ne detect pas du tout detect objet.
La matrice elle-même est généralement divisée en quatre quadrants pour la classification binaire, mais elle s'étend pour les problèmes multi-classes tels que ceux traités par Ultralytics . Ces quatre composants représentent l' intersection entre ce que le modèle a prédit et ce qui existe réellement dans l'image.
Les chiffres bruts d'une matrice de confusion sont utilisés pour calculer des mesures plus avancées qui décrivent les performances du modèle. La compréhension de ces dérivés est essentielle pour optimiser les réseaux neuronaux.
Le coût spécifique des erreurs défini par la matrice de confusion détermine la manière dont les modèles sont ajustés pour différents secteurs.
Dans le domaine de l' IA dans le domaine de la santé, la matrice de confusion est une question de sécurité. Lors de la formation d'un modèle d' analyse d'images médicales pour detect , un faux négatif (ne pas détecter une tumeur) est bien pire qu'un faux positif (signaler une tache bénigne pour examen par un médecin). Par conséquent, les ingénieurs privilégient le rappel plutôt que la précision dans ces matrices afin de s'assurer qu'aucun risque potentiel pour la santé n'est négligé.
À l'inverse, dans le domaine de la contrôle qualité de la fabrication, l'efficacité est essentielle. Si un système classant les pièces d'une chaîne de montage génère trop de faux positifs (signalant des pièces en bon état comme défectueuses), cela entraîne un gaspillage inutile et ralentit la production. Ici, la matrice de confusion aide les ingénieurs à ajuster le modèle afin de maximiser la précision, garantissant ainsi que ce qui est rejeté est réellement défectueux, ce qui rationalise les flux de travail automatisés d'apprentissage automatique .
Lorsqu'on utilise des frameworks modernes, la génération de cette matrice fait souvent partie du pipeline de validation standard. L'exemple
ci-dessous montre comment valider un
Modèle YOLO26 et accédez aux données de la matrice de confusion
à l'aide de la fonction ultralytics l'emballage.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")
# Validate the model on the COCO8 dataset
# This automatically generates and plots the confusion matrix
metrics = model.val(data="coco8.yaml")
# Access the confusion matrix object directly
print(metrics.confusion_matrix.matrix)
Il est important de distinguer la matrice de confusion d'autres termes d'évaluation similaires.