Glossar

Mittlere durchschnittliche Präzision (mAP)

Entdecke die Bedeutung der mittleren durchschnittlichen Genauigkeit (mAP) bei der Bewertung von Objekterkennungsmodellen für KI-Anwendungen wie Selbstfahren und Gesundheitswesen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Mean Average Precision (mAP) ist eine weit verbreitete Kennzahl zur Bewertung der Leistung von Objekterkennungsmodellen, wie z. B. dem beliebten Ultralytics YOLO Familie. Sie liefert einen einzigen, umfassenden Wert, der die Fähigkeit eines Modells zusammenfasst, Objekte über verschiedene Klassen und Vertrauensstufen hinweg korrekt zu identifizieren und zu lokalisieren. Im Gegensatz zu einfacheren Metriken gleicht mAP den Zielkonflikt zwischen dem Auffinden aller relevanten Objekte (Recall) und der Sicherstellung, dass die gefundenen Objekte auch tatsächlich korrekt sind (Precision), effektiv aus und ist damit entscheidend für die Bewertung von Modellen, die in komplexen Anwendungen wie autonomen Systemen und medizinischen Diagnosen eingesetzt werden.

Die Grundlagen verstehen: Präzision und Rückruf

Um mAP zu verstehen, ist es wichtig, zuerst Precision und Recall zu begreifen. Bei der Objekterkennung:

  • Präzision: Misst, wie viele der erkannten Objekte tatsächlich richtig sind. Eine hohe Genauigkeit bedeutet, dass das Modell nur wenige falsch positive Erkennungen macht.
  • Rückruf: Misst, wie viele der tatsächlich vorhandenen Objekte vom Modell richtig erkannt wurden. Eine hohe Trefferquote bedeutet, dass das Modell die meisten relevanten Objekte findet und die Zahl der falschen Negativmeldungen minimiert.

Diese beiden Metriken stehen oft in einem umgekehrten Verhältnis zueinander; eine Verbesserung der einen kann manchmal die andere verschlechtern. mAP bietet eine Möglichkeit, das Modell an verschiedenen Punkten dieses Trade-offs zu bewerten. Mehr über die Grundlagen von Precision und Recall erfährst du auf Wikipedia.

Wie mAP berechnet wird

Die Berechnung von mAP umfasst mehrere Schritte. Zunächst werden die Vorhersagen des Modells für jede Objektklasse nach ihren Konfidenzwerten sortiert. Dann wird eine Precision-Recall-Kurve erstellt, indem die Precision- und Recall-Werte bei verschiedenen Konfidenzschwellenwerten berechnet werden. Die Fläche unter dieser Kurve (AUC) ergibt die durchschnittliche Präzision (AP) für die jeweilige Klasse. Schließlich wird die mAP berechnet, indem die AP-Werte über alle Objektklassen im Datensatz gemittelt werden.

Oft wird mAP bei bestimmten Intersection over Union (IoU)-Schwellenwerten angegeben, die messen, wie gut die vorhergesagte Bounding Box mit der Ground Truth Box überlappt. Gängige Varianten sind:

  • mAP@0.5: Berechnet mit einem IoU-Schwellenwert von 0,5. Dies ist eine Standardkennzahl, die oft in Benchmarks wie PASCAL VOC verwendet wird.
  • mAP@0.5:0.95: Der durchschnittliche mAP, der über mehrere IoU-Schwellenwerte (von 0,5 bis 0,95, in der Regel in Schritten von 0,05) berechnet wird. Dies ist die wichtigste Kennzahl des COCO-Datensatzes und bietet eine strengere Bewertung der Lokalisierungsgenauigkeit.

Einen detaillierten Überblick darüber, wie diese Kennzahlen auf YOLO angewendet werden, findest du im Leitfaden zu denYOLO .

Warum mAP wichtig ist

Die durchschnittliche Genauigkeit ist wichtig, weil sie einen ganzheitlichen Blick auf die Leistung eines Objekterkennungsmodells ermöglicht. Sie berücksichtigt sowohl die Klassifizierungsgenauigkeit (ist die Objektklasse richtig?) als auch die Lokalisierungsgenauigkeit (ist die Bounding Box richtig platziert?) über alle Klassen hinweg. Das macht ihn aussagekräftiger als die alleinige Betrachtung von Precision oder Recall, insbesondere bei Datensätzen mit mehreren Objektkategorien oder unausgewogener Klassenverteilung. Ein höherer mAP-Wert deutet in der Regel auf ein robusteres und zuverlässigeres Objekterkennungsmodell hin. Zur Verbesserung von mAP werden oft Techniken wie die Abstimmung der Hyperparameter und die Verwendung besserer Trainingsdaten eingesetzt.

Anwendungen in der realen Welt

mAP ist entscheidend für die Bewertung von Modellen für reale Aufgaben, bei denen die Genauigkeit von größter Bedeutung ist:

  • Autonome Fahrzeuge: Selbstfahrende Autos müssen Fußgänger, andere Fahrzeuge, Ampeln und Hindernisse zuverlässig erkennen. Ein hoher mAP-Wert stellt sicher, dass das Erkennungssystem genau genug für eine sichere Navigation ist. Erforsche KI in selbstfahrenden Lösungen, um zu sehen, wie Erkennungsmodelle angewendet werden.
  • Medizinische Bildanalyse: Im Gesundheitswesen erfordern Modelle zur Erkennung von Tumoren, Läsionen oder anderen Anomalien in Scans (wie Röntgenaufnahmen oder MRTs) eine hohe mAP. So wird sichergestellt, dass die Diagnosen genau sind und sowohl die Zahl der verpassten Erkennungen (hohe Erinnerungsrate) als auch die Zahl der Fehlalarme (hohe Präzision) minimiert wird. Erfahre mehr über KI-Anwendungen im Gesundheitswesen.

mAP vs. andere Metriken

Es ist wichtig, mAP von verwandten Bewertungsmaßstäben zu unterscheiden:

  • Genauigkeit: Während sie für Klassifizierungsaufgaben nützlich ist, eignet sich die Genauigkeit im Allgemeinen nicht für die Objekterkennung. Sie berücksichtigt nicht die Qualität der Lokalisierung und kann bei Datensätzen mit einer Dominanz des Hintergrunds oder einem Ungleichgewicht der Klassen irreführend sein.
  • Intersection over Union (IoU): IoU misst die Überlappung zwischen einer einzelnen vorhergesagten Bounding Box und der entsprechenden Ground Truth Box. Während die IoU-Schwellenwerte in der mAP-Berechnung verwendet werden, um festzustellen, ob eine Erkennung korrekt ist, liefert IoU selbst keine Gesamtleistungsbewertung über alle Klassen und Schwellenwerte hinweg, wie es mAP tut. Einblicke in die Verwendung dieser Metriken findest du im Leitfaden zur Modellbewertung und Feinabstimmung.

Tools und Benchmarks

Mit Tools wie Ultralytics HUB können Nutzer/innen Modelle trainieren, verfolgen und auswerten, wobei mAP ein wichtiger Leistungsindikator ist. Frameworks wie PyTorch und TensorFlow liefern die Bausteine für diese Modelle. Standarddatensätze wie COCO und PASCAL VOC verwenden mAP als primäre Metrik für den Vergleich von Objekterkennungsmodellen und treiben den Fortschritt in diesem Bereich voran. Auf den Ultralytics Modellvergleichsseiten kannst du verschiedene Modellleistungen, die oft mit mAP gemessen werden, untersuchen und vergleichen.

Alles lesen