Glossar

Etikett glätten

Entdecke, wie das Glätten von Labels die Modelle des maschinellen Lernens verbessert, indem es die Überanpassung reduziert, die Generalisierung verbessert und die Zuverlässigkeit der Vorhersagen erhöht.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Die Glättung von Bezeichnungen ist eine Regulierungstechnik, die häufig beim Training von Machine-Learning-Modellen verwendet wird, insbesondere bei Klassifizierungsaufgaben. Dabei werden die "ground-truth"-Bezeichnungen so verändert, dass sie weniger zuverlässig sind, indem die "one-hot"-Kodierung der Bezeichnungen durch eine geglättete Version ersetzt wird. Durch diese Anpassung wird das Übervertrauen in die Vorhersagen des Modells reduziert, die Generalisierung verbessert und die Überanpassung gemildert.

So funktioniert die Etikettenglättung

Bei einem typischen Klassifizierungsproblem wird bei der One-Hot-Codierung der richtigen Klasse eine Wahrscheinlichkeit von 1 und allen anderen Klassen eine Wahrscheinlichkeit von 0 zugewiesen. Das Label Smoothing passt diese Wahrscheinlichkeiten an, indem es einen kleinen Teil des Vertrauens von der richtigen Klasse auf alle Klassen umverteilt. Anstatt ein Label beispielsweise als [1, 0, 0]Die Glättung des Labels könnte es so darstellen [0.9, 0.05, 0.05] für einen Glättungsfaktor von 0,1.

Durch die Abschwächung der Basiswahrheit vermeidet das Modell, dass es sich bei seinen Vorhersagen zu sicher ist. Das macht das Modell robuster, besonders in Szenarien, in denen die Daten Rauschen enthalten oder schwer zu klassifizieren sind.

Vorteile der Etikettenglättung

  1. Verbesserte Verallgemeinerung: Die Glättung von Kennzeichnungen hilft den Modellen, besser auf ungesehene Daten zu verallgemeinern, indem sie das Übervertrauen in die Vorhersagen reduziert.
  2. Verringerung von Overfitting: Er wirkt als Regularisierer und macht das Modell unempfindlicher gegenüber Rauschen in den Trainingsdaten.
  3. Bessere Kalibrierung: Modelle, die mit Label-Glättung trainiert wurden, produzieren oft besser kalibrierte Wahrscheinlichkeiten, die näher an der tatsächlichen Wahrscheinlichkeit der Korrektheit sind.

Anwendungen der Etikettenglättung

Bildklassifizierung

Die Glättung von Bezeichnungen wird bei Bildklassifizierungsaufgaben häufig eingesetzt, um die Modellkalibrierung und -leistung zu verbessern. Modelle, die z. B. auf dem ImageNet-Datensatz für die Bildklassifizierung trainiert werden, verwenden häufig eine Label-Glättung, um eine bessere Generalisierung zu erreichen und eine Überanpassung zu vermeiden.

Natürliche Sprachverarbeitung (NLP)

Im NLP wird das Glätten von Bezeichnungen bei Sequenz-zu-Sequenz-Aufgaben wie der maschinellen Übersetzung eingesetzt. Groß angelegte Sprachmodelle wie BERT (Bidirectional Encoder Representations from Transformers) und Transformator-basierte Modelle profitieren von der Glättung von Bezeichnungen während des Trainings, um ein stabiles Lernen zu gewährleisten und ein zu großes Vertrauen in die Vorhersagen zu vermeiden.

Beispiele aus der realen Welt

  1. Selbstfahrende Autos: In autonomen Fahrzeugsystemen werden Modelle, die für die Klassifizierung von Bildern und die Objekterkennung trainiert wurden, geglättet. Datensätze wie COCO für die fortgeschrittene Objekterkennung profitieren zum Beispiel von dieser Technik, um die Robustheit von Modellen wie Ultralytics YOLO zu verbessern, die häufig bei der Objekterkennung für selbstfahrende Systeme eingesetzt werden.

  2. Diagnostik im Gesundheitswesen: Bei Anwendungen in der medizinischen Bildgebung, wie z. B. bei der Tumorerkennung mit dem Datensatz zur Erkennung von Hirntumoren, erhöht das Glätten von Labels die Zuverlässigkeit der Vorhersagen. Sie verringert das Risiko, dass sich das Modell zu sehr auf falsche Klassifizierungen verlässt, was in Bereichen mit hohen Anforderungen wie dem Gesundheitswesen von entscheidender Bedeutung ist.

Etikettenglättung vs. Verwandte Konzepte

  • Überanpassung: Die Labelglättung bekämpft das Overfitting direkt, indem sie das Modell davon abhält, zu viel Vertrauen in die Trainingsdaten zu haben. Erfahre mehr darüber, wie du Overfitting in Modellen erkennst und verhinderst, auf der Glossar-Seite zum Thema Overfitting.
  • Regularisierung: Die Label-Glättung ist zwar eine Form der Regularisierung, unterscheidet sich aber von Techniken wie der L2-Regularisierung oder dem Dropout. Bei diesen Methoden geht es darum, die Gewichte zu bestrafen oder die Abhängigkeit von bestimmten Neuronen zu verringern, während beim Label Smoothing die Ziel-Labels selbst verändert werden. Wenn du tiefer in die Regularisierung einsteigen möchtest, besuche die Glossar-Seite zur Regularisierung.
  • Cross-Entropie-Verlust: Die Labelglättung verändert den traditionellen Cross-Entropie-Verlust, indem sie einen Glättungsfaktor in die Berechnung der Verlustfunktion einführt. Weitere Informationen zu Verlustfunktionen findest du auf der Seite mit dem Glossar der Verlustfunktionen.

Implementierung der Etikettenglättung mit Ultralytics HUB

Ultralytics HUB bietet eine nahtlose Integration für das Training von Klassifizierungsmodellen mit Label Smoothing. Ganz gleich, ob du mit Datensätzen wie CIFAR-10 für die Bildklassifizierung oder mit benutzerdefinierten Datensätzen arbeitest, Ultralytics HUB vereinfacht die Einstellung von Hyperparametern, einschließlich der Faktoren für das Label Smoothing, um die Leistung deines Modells zu optimieren.

Schlussfolgerung

Das Glätten von Labels ist eine einfache, aber leistungsstarke Technik, die die Robustheit und Zuverlässigkeit von Machine-Learning-Modellen verbessert. Indem sie die Zielbeschriftungen abschwächt, hilft sie den Modellen, besser zu generalisieren, eine Überanpassung zu vermeiden und gut kalibrierte Vorhersagen zu treffen. Ganz gleich, ob du an der Klassifizierung von Bildern, NLP oder der Erkennung von Objekten arbeitest, das Glätten von Beschriftungen ist ein wertvolles Werkzeug in deinem Werkzeugkasten für maschinelles Lernen. Weitere Einblicke in verwandte Techniken und Anwendungen findest du im KI- und Computer-Vision-Glossar von Ultralytics.

Alles lesen