Glossar

Fläche unter der Kurve (AUC)

Lernen Sie die Bedeutung des Bereichs unter der Kurve (AUC) bei der Bewertung von ML-Modellen kennen. Entdecken Sie die Vorteile, Einblicke in die ROC-Kurve und reale Anwendungen.

Der Bereich unter der Kurve (Area Under the Curve, AUC) ist eine weit verbreitete Leistungskennzahl beim maschinellen Lernen (ML) zur Bewertung der Effektivität von binären Klassifizierungsmodellen. Sie stellt die Wahrscheinlichkeit dar, dass ein Modell eine zufällig ausgewählte positive Instanz höher einstuft als eine zufällig ausgewählte negative Instanz. Im Wesentlichen fasst AUC die Fähigkeit eines Modells zusammen, zwischen den Klassen über alle möglichen Klassifizierungsschwellen hinweg zu unterscheiden, und liefert so ein einziges, aggregiertes Maß für die Leistung. Ein höherer AUC-Wert deutet auf ein leistungsfähigeres Modell hin und ist somit ein wichtiges Instrument für den Vergleich verschiedener Modelle und für die Abstimmung der Hyperparameter.

Was ist die Roc-Kurve?

AUC ist untrennbar mit der Receiver Operating Characteristic (ROC)-Kurve verbunden. Die ROC-Kurve ist ein Diagramm, in dem die True-Positive-Rate (TPR), auch bekannt als Recall, gegen die Falsch-Positive-Rate (FPR) bei verschiedenen Schwellenwerten aufgetragen wird. Der AUC ist einfach die Fläche unter dieser ROC-Kurve. Während die ROC-Kurve eine visuelle Darstellung der Kompromisse eines Modells zwischen Sensitivität und Spezifität bietet, quantifiziert der AUC-Wert diesen Kompromiss in einer einzigen Zahl, was den Modellvergleich vereinfacht.

Interpretation des Auc-Scores

Der AUC-Wert reicht von 0 bis 1, wobei ein höherer Wert ein besseres Modell anzeigt.

  • AUC = 1: Dies steht für ein perfektes Modell, das alle positiven und negativen Instanzen korrekt klassifiziert. Jede positive Probe hat eine höhere Vorhersagewahrscheinlichkeit als jede negative Probe.
  • AUC = 0,5: Dies bedeutet, dass das Modell keine Unterscheidungsfähigkeit besitzt, was einem zufälligen Raten gleichkommt. Die ROC-Kurve für ein solches Modell wäre eine gerade diagonale Linie.
  • AUC < 0.5: A score below 0.5 suggests the model is performing worse than random chance. In practice, this often points to an issue with the model or data, such as inverted predictions.
  • 0.5 < AUC < 1: This range signifies that the model has some ability to discriminate. The closer the value is to 1, the better the model's performance.

Werkzeuge wie Scikit-learn bieten Funktionen zur einfachen Berechnung von AUC-Scores, die mit Plattformen wie TensorBoard visualisiert werden können.

Anwendungen in der realen Welt

AUC ist eine wertvolle Metrik in vielen Bereichen, in denen eine binäre Klassifizierung entscheidend ist.

  1. Medizinische Bildanalyse: In der KI im Gesundheitswesen werden Modelle für Aufgaben wie die Erkennung von Tumoren auf medizinischen Scans entwickelt. Anhand des AUC-Wertes wird bewertet, wie gut ein Modell zwischen bösartigen (positiven) und gutartigen (negativen) Fällen unterscheiden kann. Ein hoher AUC-Wert ist für die Entwicklung zuverlässiger Diagnoseinstrumente zur Unterstützung von Radiologen von entscheidender Bedeutung, da er eine hohe Empfindlichkeit ohne eine übermäßige Anzahl von Fehlalarmen gewährleistet. Dies ist entscheidend für Modelle, die Datensätze wie den Hirntumor-Datensatz analysieren.
  2. Erkennung von Betrug: In der Finanzbranche werden KI-Modelle eingesetzt, um betrügerische Transaktionen zu erkennen. Datensätze in diesem Bereich sind in der Regel sehr unausgewogen und enthalten weitaus mehr legitime als betrügerische Transaktionen. AUC ist hier besonders nützlich, da es ein robustes Leistungsmaß darstellt, das im Gegensatz zur Genauigkeit nicht von der Mehrheitsklasse verzerrt wird. Sie hilft Finanzinstituten bei der Entwicklung von Systemen, die Betrug effektiv aufdecken und gleichzeitig Falschmeldungen minimieren, die für die Kunden unangenehm sein könnten. Führende Finanzinstitute verlassen sich bei der Risikobewertung auf solche Messgrößen.

Auc vs. Andere Metriken

AUC ist zwar eine wertvolle Metrik, aber es ist wichtig zu verstehen, wie sie sich von anderen Bewertungsmaßstäben unterscheidet, die in der Computer Vision (CV) und ML verwendet werden:

  • AUC vs. Genauigkeit: Die Genauigkeit misst die allgemeine Korrektheit der Vorhersagen, kann aber bei unausgewogenen Datensätzen irreführend sein. AUC bietet ein schwellenunabhängiges Maß für die Trennbarkeit und ist daher in solchen Fällen zuverlässiger.
  • AUC vs. Precision-Recall: Bei unausgewogenen Datensätzen, bei denen die positive Klasse selten und von primärem Interesse ist (z. B. bei der Erkennung seltener Krankheiten), können die Precision-Recall-Kurve und ihre entsprechende Fläche (AUC-PR) informativer sein als die ROC-AUC. Metriken wie Precision und Recall konzentrieren sich speziell auf die Leistung in Bezug auf die positive Klasse. Der F1-Score stellt ebenfalls ein Gleichgewicht zwischen Präzision und Recall her.
  • AUC vs. mAP/IoU: AUC wird hauptsächlich für binäre Klassifizierungsaufgaben verwendet. Für Objekterkennungsaufgaben, die mit Modellen wie Ultralytics YOLO durchgeführt werden, sind Metriken wie die mittlere durchschnittliche Präzision (mAP) und die Überschneidung über die Einheit (IoU) der Standard. Diese Metriken bewerten sowohl die Klassifizierungsgenauigkeit als auch die Lokalisierungsgenauigkeit der erkannten Objekte unter Verwendung von Bounding Boxes. Mehr über die YOLO-Leistungsmetriken erfahren Sie hier.

Die Wahl der richtigen Metrik hängt von der spezifischen Problemstellung, den Eigenschaften des Datensatzes (z. B. Klassengleichgewicht) und den Zielen des KI-Projekts ab. AUC bleibt aufgrund seiner Robustheit und Interpretierbarkeit ein Eckpfeiler für die Bewertung der binären Klassifizierungsleistung. Die Verfolgung von Experimenten mit Tools wie Ultralytics HUB kann helfen, diese Metriken effektiv zu verwalten und zu vergleichen.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert