Glossar

Etikett glätten

Verbessere die Genauigkeit und Robustheit von KI-Modellen mit Label Smoothing - einer bewährten Technik zur Verbesserung der Generalisierung und zur Reduzierung von Overconfidence.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Die Labelglättung ist eine Regularisierungstechnik, die beim Training von Klassifizierungsmodellen beim maschinellen Lernen (ML) und Deep Learning (DL) eingesetzt wird. Ihr Hauptziel ist es, zu verhindern, dass das Modell in seinen Vorhersagen zu selbstsicher wird. Anstatt das Modell mit "harten" Bezeichnungen zu trainieren (wobei der richtigen Klasse eine Wahrscheinlichkeit von 1 und allen anderen Klassen eine Wahrscheinlichkeit von 0 zugeordnet wird), werden beim Label Smoothing "weiche" Bezeichnungen verwendet. Das bedeutet, dass der richtigen Klasse eine etwas geringere Wahrscheinlichkeit zugewiesen wird (z. B. 0,9) und die kleine verbleibende Wahrscheinlichkeit gleichmäßig auf die falschen Klassen verteilt wird. Diese Technik ermutigt das Modell, sich seiner Vorhersagen weniger sicher zu sein, was zu einer besseren Generalisierung und einer besseren Leistung bei ungesehenen Daten führen kann. Sie wurde vor allem in der Arbeit Rethinking the Inception Architecture diskutiert.

So funktioniert die Etikettenglättung

Bei Standard-Klassifizierungsaufgaben werden die Modelle oft mit einer Verlustfunktion wie der Kreuzentropie trainiert, die das Modell bestraft, je nachdem, wie weit seine vorhergesagte Wahrscheinlichkeitsverteilung von der Zielverteilung (Hard Labels) entfernt ist. Bei harten Labels wird das Modell dazu gedrängt, die Ausgabewahrscheinlichkeit für die richtige Klasse extrem nahe an 1 und die anderen nahe an 0 zu setzen. Das kann zu einer Überanpassung führen, bei der das Modell die Trainingsdaten einschließlich des Rauschens zu gut lernt und bei neuen Daten schlecht abschneidet. Die Label-Glättung verändert die Ziel-Labels, indem sie den falschen Klassen einen kleinen Wahrscheinlichkeitswert (Epsilon) zuweist und die Wahrscheinlichkeit der richtigen Klasse um die verteilte Gesamtmenge reduziert. Dadurch wird verhindert, dass das Modell übermäßig große Logit-Werte für die richtige Klasse erzeugt, was ein weniger zuversichtliches, aber potenziell robusteres Modell fördert.

Vorteile der Etikettenglättung

  • Bessere Verallgemeinerung: Indem sie übermäßiges Vertrauen verhindern, verallgemeinern Modelle oft besser auf ungesehene Daten.
  • Bessere Modellkalibrierung: Die vorhergesagten Wahrscheinlichkeiten spiegeln in der Regel die tatsächliche Wahrscheinlichkeit der Korrektheit besser wider. Du kannst mehr über die Modellkalibrierung in der Statistik erfahren.
  • Erhöhte Robustheit: Modelle können robuster gegenüber verrauschten Etiketten oder geringfügigen Abweichungen in den Eingabedaten werden.
  • Reduziertes Overfitting: Sie fungiert als Regularisierer und hilft dabei, Overfitting zu verringern, ähnlich wie Techniken wie Dropout oder Data Augmentation, obwohl sie direkt auf die Zielmarkierungen wirkt.

Anwendungen der Etikettenglättung

Die Glättung von Labels ist weit verbreitet, insbesondere bei Klassifizierungsaufgaben in verschiedenen Bereichen:

  • Bildklassifizierung: Wenn tiefe neuronale Netze wie dieYOLO Ultralytics auf großen Datensätzen wie ImageNet trainiert werden, kann die Glättung von Labels zu einer höheren Validierungsgenauigkeit beitragen. Dies ist besonders in Bereichen wie der medizinischen Bildanalyse nützlich, wo kalibrierte Wahrscheinlichkeitsschätzungen wichtig sind.
  • Natürliche Sprachverarbeitung (NLP): Bei Aufgaben wie der maschinellen Übersetzung oder dem Training von großen Sprachmodellen(LLMs) wie BERT oder GPT hilft das Glätten von Bezeichnungen, die Sprachflüssigkeit und die Generalisierung der Modelle zu verbessern, indem verhindert wird, dass sie bestimmten Wortvorhersagen absolute Sicherheit zuordnen. Frameworks wie PyTorch und TensorFlow enthalten in ihren Verlustfunktionen oft Optionen für die Glättung von Bezeichnungen.

Überlegungen

Obwohl sie im Allgemeinen von Vorteil ist, kann die Glättung der Labels die Konvergenz des Modells während des Trainings etwas verlangsamen. Wie groß der Nutzen ist, kann auch vom Datensatz und der Modellarchitektur abhängen. Der Glättungsfaktor (Epsilon) selbst ist ein Hyperparameter, der für optimale Ergebnisse möglicherweise angepasst werden muss. Er ist häufig in die Trainingspipelines moderner Frameworks und Plattformen wie Ultralytics HUB integriert.

Alles lesen