Verbessere die Genauigkeit und Robustheit von KI-Modellen mit Label Smoothing - einer bewährten Technik zur Verbesserung der Generalisierung und zur Reduzierung von Overconfidence.
Die Labelglättung ist eine Regularisierungstechnik, die beim Training von Klassifizierungsmodellen beim maschinellen Lernen (ML) und Deep Learning (DL) eingesetzt wird. Ihr Hauptziel ist es, zu verhindern, dass das Modell in seinen Vorhersagen zu selbstsicher wird. Anstatt das Modell mit "harten" Bezeichnungen zu trainieren (wobei der richtigen Klasse eine Wahrscheinlichkeit von 1 und allen anderen Klassen eine Wahrscheinlichkeit von 0 zugeordnet wird), werden beim Label Smoothing "weiche" Bezeichnungen verwendet. Das bedeutet, dass der richtigen Klasse eine etwas geringere Wahrscheinlichkeit zugewiesen wird (z. B. 0,9) und die kleine verbleibende Wahrscheinlichkeit gleichmäßig auf die falschen Klassen verteilt wird. Diese Technik ermutigt das Modell, sich seiner Vorhersagen weniger sicher zu sein, was zu einer besseren Generalisierung und einer besseren Leistung bei ungesehenen Daten führen kann. Sie wurde vor allem in der Arbeit Rethinking the Inception Architecture diskutiert.
Bei Standard-Klassifizierungsaufgaben werden die Modelle oft mit einer Verlustfunktion wie der Kreuzentropie trainiert, die das Modell bestraft, je nachdem, wie weit seine vorhergesagte Wahrscheinlichkeitsverteilung von der Zielverteilung (Hard Labels) entfernt ist. Bei harten Labels wird das Modell dazu gedrängt, die Ausgabewahrscheinlichkeit für die richtige Klasse extrem nahe an 1 und die anderen nahe an 0 zu setzen. Das kann zu einer Überanpassung führen, bei der das Modell die Trainingsdaten einschließlich des Rauschens zu gut lernt und bei neuen Daten schlecht abschneidet. Die Label-Glättung verändert die Ziel-Labels, indem sie den falschen Klassen einen kleinen Wahrscheinlichkeitswert (Epsilon) zuweist und die Wahrscheinlichkeit der richtigen Klasse um die verteilte Gesamtmenge reduziert. Dadurch wird verhindert, dass das Modell übermäßig große Logit-Werte für die richtige Klasse erzeugt, was ein weniger zuversichtliches, aber potenziell robusteres Modell fördert.
Die Glättung von Labels ist weit verbreitet, insbesondere bei Klassifizierungsaufgaben in verschiedenen Bereichen:
Obwohl sie im Allgemeinen von Vorteil ist, kann die Glättung der Labels die Konvergenz des Modells während des Trainings etwas verlangsamen. Wie groß der Nutzen ist, kann auch vom Datensatz und der Modellarchitektur abhängen. Der Glättungsfaktor (Epsilon) selbst ist ein Hyperparameter, der für optimale Ergebnisse möglicherweise angepasst werden muss. Er ist häufig in die Trainingspipelines moderner Frameworks und Plattformen wie Ultralytics HUB integriert.