Verbessern Sie die Genauigkeit und Robustheit von KI-Modellen mit Label Smoothing - einer bewährten Technik zur Verbesserung der Verallgemeinerung und zur Verringerung von Overconfidence.
Label Smoothing ist eine Regularisierungstechnik, die beim Training von Modellen des maschinellen Lernens eingesetzt wird, insbesondere bei Klassifizierungsaufgaben. Sie befasst sich mit dem Problem der Modellübereinstimmung, indem sie verhindert, dass das Modell der richtigen Klasse die volle Wahrscheinlichkeit von 1,0 zuweist. Anstatt "harte" Etiketten zu verwenden (bei denen die richtige Klasse 1 und alle anderen 0 sind), werden beim Label Smoothing "weiche" Etiketten erstellt, die einen kleinen Teil der Wahrscheinlichkeitsmasse auf die anderen Klassen verteilen. Dadurch wird das Modell ermutigt, sich seiner Vorhersagen weniger sicher zu sein, was zu einer besseren Verallgemeinerung und besseren Leistung bei ungesehenen Daten führen kann. Diese Technik wurde vor allem in leistungsstarken Modellen eingesetzt und wird in Artikeln wie When Does Label Smoothing Help? ausführlich beschrieben.
Bei einem typischen Klassifizierungsproblem des überwachten Lernens bestehen die Trainingsdaten aus Eingaben und den entsprechenden korrekten Bezeichnungen. Bei einer Bildklassifizierungsaufgabe zum Beispiel würde ein Bild einer Katze die Bezeichnung "Katze" als einen kodierten Ein-Hot-Vektor wie für die Klassen [Katze, Hund, Vogel] haben. Bei der Berechnung der Verlustfunktion wird das Modell danach bestraft, wie weit seine Vorhersage von diesem harten Ziel entfernt ist.
Das Label Smoothing verändert dieses Ziel. Sie reduziert die Zielwahrscheinlichkeit für die richtige Klasse leicht (z. B. auf 0,9) und verteilt die verbleibende kleine Wahrscheinlichkeit (in diesem Fall 0,1) gleichmäßig auf die falschen Klassen. Das neue "weiche" Ziel könnte also wie [0,9, 0,05, 0,05] aussehen. Diese kleine Änderung hält die letzte Logit-Schicht eines neuronalen Netzes davon ab, extrem große Werte für eine Klasse zu erzeugen, was dazu beiträgt, eine Überanpassung zu verhindern. Dieser Prozess kann während der Modellschulung mit Plattformen wie Ultralytics HUB verwaltet werden.
Der Hauptvorteil des Label Smoothing besteht darin, dass es die Modellkalibrierung verbessert. Die vorhergesagten Konfidenzwerte eines gut kalibrierten Modells spiegeln die tatsächliche Wahrscheinlichkeit der Korrektheit genauer wider. Dies ist entscheidend für Anwendungen, bei denen das Verständnis der Modellsicherheit wichtig ist, wie z. B. bei der medizinischen Bildanalyse. Durch die Vermeidung von Overconfidence wird auch die Fähigkeit des Modells verbessert, auf neue Daten zu verallgemeinern - ein wichtiges Ziel jedes Projekts des maschinellen Lernens. Dies führt oft zu einem leichten Anstieg der Genauigkeit. Eine bessere Verallgemeinerung führt zu robusteren Modellen für die Echtzeit-Inferenz und den endgültigen Einsatz des Modells.
Die Etikettenglättung ist eine einfache, aber wirksame Technik, die in verschiedenen modernen Modellen eingesetzt wird.
Es ist wichtig, das Label Smoothing von anderen Regularisierungstechniken zu unterscheiden.