Glossaire

Surface sous la courbe (SSC)

Apprends l'importance de l'aire sous la courbe (AUC) dans l'évaluation des modèles ML. Découvre ses avantages, les aperçus de la courbe ROC et les applications dans le monde réel.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'aire sous la courbe (AUC) est une mesure de performance fondamentale principalement utilisée dans l'apprentissage automatique (ML) pour évaluer les modèles de classification binaire. Elle quantifie la capacité d'un modèle à faire la distinction entre les classes positives et négatives pour tous les seuils de classification possibles. Les scores AUC vont de 0 à 1, les valeurs les plus élevées indiquant une meilleure performance du modèle. Un modèle qui obtient un score de 0,5 n'est pas plus performant que le hasard, tandis qu'un modèle parfait qui sépare parfaitement les classes obtient un AUC de 1,0. Cette métrique fournit une mesure unique et globale de la performance de la classification, indépendante de tout choix de seuil spécifique.

Comprendre la courbe ROC

La valeur de la SSC est dérivée directement de la courbe ROC (Receiver Operating Characteristic). La courbe ROC est un graphique qui illustre la capacité de diagnostic d'un classificateur binaire lorsque l'on fait varier son seuil de discrimination. Elle représente le taux de vrais positifs (TPR), également appelé sensibilité ou rappel, sur l'axe des ordonnées par rapport au taux de faux positifs (FPR) sur l'axe des abscisses, à différents seuils. L'AUC représente l'ensemble de la zone bidimensionnelle située sous cette courbe ROC. Un aperçu complet des courbes ROC est disponible sur Wikipedia.

Interprétation de la SSC

L'AUC est interprétée comme la probabilité qu'un modèle classe une instance positive choisie au hasard plus haut qu'une instance négative choisie au hasard. Il s'agit donc d'une mesure du pouvoir discriminant global du modèle. L'un des principaux avantages de l'AUC est sa relative insensibilité au déséquilibre des classes par rapport à des mesures telles que la précision. Dans les ensembles de données où une classe surpasse largement l'autre (un scénario courant dans les problèmes du monde réel), la précision peut être trompeuse, alors que la CSC fournit une mesure plus robuste de la façon dont le modèle sépare les classes. Une SSC proche de 1 indique un modèle avec une excellente séparabilité, tandis qu'une SSC proche de 0,5 suggère une faible capacité de discrimination, similaire à une supposition aléatoire. Il est essentiel de comprendre ces interprétations pour évaluer efficacement les modèles.

Applications dans le domaine de l'IA et de la ML

L'AUC est largement utilisé dans divers domaines où les tâches de classification binaire sont essentielles. Voici deux exemples :

  1. Diagnostic médical : dans l'analyse d'images médicales, les modèles sont souvent entraînés à détecter la présence ou l'absence de maladies (par exemple, tumeurs, rétinopathie diabétique). L'AUC est utilisée pour évaluer dans quelle mesure ces modèles d'IA dans le domaine de la santé peuvent faire la distinction entre les patients sains et malades sur la base des images, à travers différents seuils de diagnostic. L'importance de l'AUC dans la recherche médicale est bien documentée.
  2. Détection des fraudes : Les institutions financières utilisent des modèles ML pour identifier les transactions frauduleuses. Il s'agit d'un problème classique de classification binaire (frauduleux vs non frauduleux). L'AUC permet d'évaluer l'efficacité globale du modèle à signaler les activités potentiellement frauduleuses tout en minimisant les fausses alertes, ce qui est vital pour l'IA dans la finance.

De nombreux cadres et bibliothèques d'apprentissage profond (DL), notamment . PyTorch et TensorFlowsont utilisés pour construire ces classificateurs. Des outils comme Scikit-learn offrent des fonctions pratiques pour calculer les scores ROC AUC, ce qui simplifie le processus d'évaluation. Des plateformes comme Ultralytics HUB facilitent également la formation et l'évaluation des modèles lorsque ces métriques sont pertinentes.

AUC par rapport à d'autres paramètres

Bien que la SSC soit une mesure précieuse, il est important de comprendre en quoi elle diffère des autres mesures d'évaluation utilisées en vision artificielle (CV) et en ML :

  • AUC vs. précision : La précision mesure l'exactitude globale des prédictions mais peut être trompeuse sur les ensembles de données déséquilibrés. La SSC fournit une mesure de séparabilité indépendante du seuil, ce qui la rend plus fiable dans de tels cas.
  • SSC vs. Précision-Recall : Pour les ensembles de données déséquilibrés où la classe positive est rare et d'un intérêt primordial (par exemple, la détection de maladies rares), la courbe Précision-Recall et sa surface correspondante (AUC-PR) peuvent être plus informatives que l'AUC ROC. Les mesures telles que la précision et le rappel se concentrent spécifiquement sur les performances concernant la classe positive. Le score F1 permet également d'équilibrer la précision et le rappel.
  • AUC vs. mAP/IoU : L'AUC est principalement utilisé pour les tâches de classification binaire. Pour les tâches de détection d'objets courantes avec des modèles comme Ultralytics YOLOdes mesures telles que la précision moyenne (mAP) et l'intersection sur l'union (IoU) sont la norme. Ces mesures évaluent à la fois la précision de la classification et la précision de la localisation des objets détectés à l'aide de boîtes englobantes. Tu peux en savoir plus sur les mesures de performance deYOLO ici. La comparaison de différents modèles implique souvent l'analyse de ces mesures spécifiques, comme on le voit dans les comparaisons de modèles d'Ultralytics .

Le choix de la bonne métrique dépend du problème spécifique, des caractéristiques de l'ensemble de données (comme l'équilibre des classes) et des objectifs du projet d'IA. L'AUC reste la pierre angulaire de l'évaluation des performances de la classification binaire en raison de sa robustesse et de sa facilité d'interprétation.

Tout lire