Definiere KI-Konfidenzwerte. Erfahre, wie Modelle die Vorhersagesicherheit messen, Schwellenwerte für die Zuverlässigkeit festlegen und Vertrauen von Genauigkeit unterscheiden.
Im Zusammenhang mit künstlicher Intelligenz (KI) und maschinellem Lernen (ML) ist die Konfidenz ein Wert, den ein Modell seiner Vorhersage zuweist und der angibt, wie sicher das Modell in Bezug auf diese spezifische Ausgabe ist. Bei Aufgaben wie der Objekterkennung oder der Bildklassifizierung wird jedes erkannte Objekt oder zugewiesene Klassenlabel mit einem Konfidenzwert versehen, der in der Regel von 0 bis 1 (oder 0% bis 100%) reicht. Dieser Wert hilft den Nutzern, die Zuverlässigkeit der einzelnen Vorhersagen von Modellen wie Ultralytics YOLO. Ein höherer Wert deutet darauf hin, dass das Modell seine Vorhersage auf der Grundlage der im Training erlernten Muster sicherer trifft. Das Verständnis der Zuverlässigkeit ist entscheidend für die Interpretation von Modellergebnissen und das Treffen fundierter Entscheidungen auf der Grundlage von KI-Vorhersagen, insbesondere bei sicherheitskritischen Anwendungen wie KI in der Automobilindustrie.
Konfidenzwerte werden normalerweise von der Ausgabeschicht eines neuronalen Netzes (NN) abgeleitet. Bei Klassifizierungsaufgaben wird dazu oft eine Aktivierungsfunktion wie Softmax oder Sigmoid auf die Rohausgaben (Logits) angewandt, um für jede Klasse wahrscheinlichkeitsähnliche Werte zu erhalten. Bei Objekterkennungsmodellen wie YOLO kann der Konfidenzwert die Wahrscheinlichkeit des Vorhandenseins eines Objekts in einer vorgeschlagenen Bounding Box (oft als "Objectness Score" bezeichnet) und die Wahrscheinlichkeit der Zugehörigkeit dieses Objekts zu einer bestimmten Klasse unter der Voraussetzung des Vorhandenseins eines Objekts kombinieren. Dies ist ein wichtiges Ergebnis, das während des Inferenzprozesses verwendet wird, um die Gültigkeit der Erkennungen zu bewerten. Dieser Wert wird auf der Grundlage der Modellgewichte berechnet, die aus Datensätzen wie COCO gelernt wurden.
In der Praxis sind nicht alle Vorhersagen eines Modells gleichermaßen nützlich oder zuverlässig. Vorhersagen mit sehr niedrigen Vertrauenswerten sind oft Hintergrundrauschen oder unsichere Klassifizierungen. Um diese herauszufiltern, wird in der Regel eine "Vertrauensschwelle" festgelegt. Dabei handelt es sich um einen benutzerdefinierten Wert (z. B. 0,5 oder 50 %); nur Vorhersagen mit einem Konfidenzwert über diesem Schwellenwert werden als gültige Ergebnisse betrachtet. Die Festlegung eines geeigneten Schwellenwerts ist entscheidend und hängt oft von der jeweiligen Anwendung ab:
Der Konfidenzschwellenwert wird oft in Verbindung mit Techniken wie der Non-Maximum Suppression (NMS) verwendet, um die endgültige Erkennungsmenge zu verfeinern, indem überlappende Bounding Boxes für dasselbe Objekt entfernt werden. Du kannst diesen Schwellenwert bei der Verwendung von Ultralytics ganz einfach über die Befehlszeilenschnittstelle (CLI) oder die Python konfigurieren. Um den optimalen Schwellenwert zu finden, müssen möglicherweise die Hyperparameter angepasst werden.
Vertrauenswerte sind entscheidend für den verantwortungsvollen und effektiven Einsatz von KI-Modellen:
Es ist wichtig, den Konfidenzwert einer einzelnen Vorhersage nicht mit den Gesamtkennzahlen der Modellbewertung zu verwechseln. Sie sind zwar verwandt, messen aber unterschiedliche Aspekte der Leistung:
Zusammenfassend lässt sich sagen, dass die Konfidenz ein wertvolles Ergebnis ist, um die Sicherheit einzelner KI-Vorhersagen zu bewerten und so eine bessere Filterung, Priorisierung und Entscheidungsfindung in realen Anwendungen zu ermöglichen. Sie ergänzt die Metriken, die die Gesamtleistung eines Modells bewerten, wie sie in Ultralytics HUB erfasst werden, unterscheidet sich aber von ihnen.