Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Fläche unter der Kurve (AUC)

Erfahren Sie, wie die Fläche unter der Kurve (AUC) die Modellleistung misst. Entdecken Sie ihre Rolle in den Bereichen Klassifizierung, Gesundheitswesen und Finanzen mit Ultralytics .

Die Fläche unter der Kurve (AUC) ist eine umfassende Leistungskennzahl, die im maschinellen Lernen (ML) verwendet wird, um die Unterscheidungskraft eines Klassifizierungsmodells zu bewerten. Konkret misst sie die zweidimensionale Fläche unter der Receiver Operating Characteristic (ROC)-Kurve und liefert einen einzelnen Skalarwert zwischen 0 und 1. Ein AUC-Wert von 1,0 steht für einen perfekten Klassifikator, während ein AUC-Wert von 0,5 darauf hindeutet, dass das Modell nicht besser als der Zufall ist. Da der AUC-Wert die Leistung über alle möglichen Klassifizierungsschwellen hinweg aggregiert, eignet er sich besonders gut für die Bewertung der Vorhersagemodellierungsfähigkeiten in Szenarien , in denen die optimale Entscheidungsgrenze unbekannt oder variabel ist.

Die Beziehung zwischen ROC und AUC

Um AUC vollständig zu verstehen, muss man die zugrunde liegende ROC-Kurve verstehen. Dieses Diagramm stellt die True-Positive-Rate (Recall) gegenüber der False-Positive-Rate bei verschiedenen Schwellenwerteinstellungen dar. Die AUC quantifiziert im Wesentlichen die Wahrscheinlichkeit, dass das Modell eine zufällig ausgewählte positive Instanz höher einstuft als eine zufällig ausgewählte negative Instanz.

  • Trennbarkeit: Der AUC-Wert misst, wie gut das Modell zwischen Klassen unterscheidet (z. B. „Hund“ vs. „Katze“). Eine höhere Trennbarkeit bedeutet bessere Vorhersagen.
  • Schwellenwertunabhängigkeit: Im Gegensatz zum F1-Score, der von einem bestimmten Cutoff-Wert abhängt, bietet der AUC-Wert einen umfassenden Überblick über die Qualität des Modells.
  • Skaleninvarianz: Sie misst, wie gut Vorhersagen gerankt sind, und nicht ihre absoluten Wahrscheinlichkeitswerte.

Anwendungsfälle in der Praxis

AUC ist eine bevorzugte Metrik in Branchen, die sich mit kritischen Entscheidungen und unausgewogenen Datensätzen befassen, bei denen eine Klasse deutlich seltener ist als die andere.

  1. Medizinische Diagnostik: Im Bereich der KI im Gesundheitswesen werden Modelle darauf trainiert, Pathologien anhand der Auswertung medizinischer Bilder zu erkennen. Ein Modell, das seltene Tumore erkennt, muss beispielsweise der Sensitivität Priorität einräumen. Ein hoher AUC-Wert stellt sicher, dass das System tatsächlichen Patienten im Vergleich zu gesunden Personen zuverlässig höhere Risikobewertungen zuweist, wodurch gefährliche falsch-negative Ergebnisse reduziert werden.
  2. Aufdeckung von Finanzbetrug: Finanzinstitute nutzen KI im Finanzbereich, um betrügerische Transaktionen aufzudecken. Da legitime Transaktionen betrügerische Transaktionen zahlenmäßig weit übertreffen, könnte ein Modell eine Genauigkeit von 99 % erreichen, indem es einfach alles als „legitim” einstuft. AUC verhindert dies, indem es bewertet, wie gut das Modell tatsächliche Betrugsversuche von normalem Verhalten trennt, unabhängig von der Klassenverteilung.

Unterscheidung zwischen AUC und verwandten Metriken

Es ist entscheidend, AUC von anderen Modellbewertungserkenntnissen zu unterscheiden, um das richtige Werkzeug für Ihr Projekt auszuwählen.

  • AUC vs. Genauigkeit: Die Genauigkeit ist einfach das Verhältnis der korrekten Vorhersagen zur Gesamtzahl der Vorhersagen. Bei stark verzerrten Datensätzen kann die Genauigkeit irreführend hoch sein. AUC ist robust gegenüber Klassenungleichgewichten und liefert eine ehrlichere Bewertung der Klassifikatorleistung.
  • AUC vs. Präzision-Rückruf: Während ROC-AUC der Standard für ausgewogene Ergebnisse ist, wird die Fläche unter der Präzision-Rückruf-Kurve (AUPRC) oft bevorzugt, wenn die „positive” Klasse extrem selten ist und falsche Positivmeldungen ein großes Problem darstellen.
  • AUC vs. mAP: Bei Objekterkennungsaufgaben mit Modellen wie YOLO26 ist die Standardmetrik die Mean Average Precision (mAP). Während mAP konzeptionell ähnlich mAP – Berechnung der Fläche unter der Precision-Recall-Kurve über verschiedene Intersection over Union (IoU)-Schwellenwerte hinweg – bezieht sich AUC streng genommen auf die ROC-Kurve in der binären oder mehrklassigen Klassifizierung.

Code-Beispiel

Das folgende Beispiel zeigt, wie ein vortrainiertes YOLO26-Klassifizierungsmodell geladen und eine Validierung durchgeführt wird. Während YOLO -Modelle in erster Linie die Top-1- und Top-5-Genauigkeit melden, generiert der Validierungsprozess die Vorhersagedaten, die für die Analyse kurvenbasierter Metriken erforderlich sind.

from ultralytics import YOLO

# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")

# Validate the model on a standard dataset (e.g., imagenet10)
# This generates precision, recall, and accuracy metrics
results = model.val(data="imagenet10")

# Access top-1 accuracy, a key point on the ROC curve
print(f"Top-1 Accuracy: {results.top1:.4f}")
print(f"Top-5 Accuracy: {results.top5:.4f}")

Für ein umfassendes Lebenszyklusmanagement, einschließlich Datensatzannotation und Cloud-Training, bei dem diese Metriken automatisch visualisiert werden, können Entwickler die Ultralytics nutzen. Dies vereinfacht die Interpretation komplexer Metriken wie AUC, ohne dass manuelle Berechnungen erforderlich sind.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten