Glossar

Etikett glätten

Verbessere die Genauigkeit und Robustheit von KI-Modellen mit Label Smoothing - einer bewährten Technik zur Verbesserung der Generalisierung und zur Reduzierung von Overconfidence.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Label Smoothing ist eine Regularisierungstechnik, die beim maschinellen Lernen, insbesondere bei Klassifizierungsaufgaben, eingesetzt wird, um die Modellgeneralisierung und -kalibrierung zu verbessern. Dabei werden die beim Training verwendeten Zielkennzeichnungen verändert und die harten, mit einem Hot-Code kodierten Kennzeichnungen aufgeweicht, um das übermäßige Vertrauen in die Vorhersagen zu verringern und das Modell dazu zu bringen, sich bei seinen Klassifizierungen weniger sicher zu sein.

Was ist Etikettenglättung?

Bei herkömmlichen Klassifizierungsaufgaben werden die Zielkennzeichnungen oft mit einer Einpunktkodierung dargestellt. Wenn ein Bild zum Beispiel zur Klasse "Katze" gehört, würde das Label lauten [0, 1, 0, 0] für vier Klassen (Hund, Katze, Vogel, Fisch), wobei das volle Vertrauen (1,0) in die Klasse "Katze" und das Null-Vertrauen (0,0) in alle anderen Klassen angegeben wird. Die Etikettenglättung ändert dies, indem ein kleiner Teil der Wahrscheinlichkeitsmasse von der richtigen Klasse auf die falschen Klassen verteilt wird. Anstatt eines Ziels von [0, 1, 0, 0]Die Glättung des Etiketts könnte es in etwas ändern wie [0.01, 0.9, 0.03, 0.06]. Dieses angepasste Ziel zeigt an, dass es sich bei dem Bild zwar tatsächlich um eine "Katze" handelt, aber auch die Möglichkeit besteht, dass es sich um etwas anderes handelt.

Diese scheinbar unbedeutende Anpassung hat einen großen Einfluss auf das Lernen der Modelle. Indem sie verhindert, dass sich das Modell während des Trainings zu sehr auf eine einzige Klasse verlässt, ermutigt sie es, robustere und verallgemeinerbare Merkmale zu lernen. Sie teilt dem Modell mit, dass auch die Trainingsdaten eine gewisse Unsicherheit oder ein gewisses Rauschen aufweisen können und dass es die Trainingsdaten nicht zu perfekt anpassen sollte, was zu einer Überanpassung führen könnte.

Warum ist die Etikettenglättung wichtig?

Der Hauptvorteil des Label Smoothing ist die verbesserte Generalisierung des Modells. Modelle, die mit der standardmäßigen One-Hot-Kodierung trainiert wurden, können sich ihrer Vorhersagen übermäßig sicher sein, insbesondere bei den Trainingsdaten. Diese übermäßige Zuversicht kann zu einer schlechten Leistung bei ungesehenen Daten führen, weil das Modell nicht gelernt hat, mit Unsicherheiten oder leichten Schwankungen in der Eingabe umzugehen.

Die Label-Glättung wirkt wie eine Form der Regularisierung, indem sie zu sichere Vorhersagen bestraft. Sie ermutigt das Modell dazu, weniger diskriminierend und kalibrierter zu sein, d. h. seine Vorhersagewahrscheinlichkeiten spiegeln eher die tatsächliche Wahrscheinlichkeit wider, dass eine Klasse korrekt ist. Dies führt oft zu einer besseren Genauigkeit und Zuverlässigkeit, vor allem in realen Anwendungen, in denen die Daten oft verrauscht und weniger perfekt sind als die Trainingsdatensätze.

Außerdem kann die Glättung von Kennzeichnungen dazu beitragen, dass sich Modelle nicht an die Trainingsdaten erinnern und stattdessen aussagekräftigere Darstellungen lernen. Sie macht den Trainingsprozess stabiler und weniger empfindlich gegenüber verrauschten Labels im Datensatz.

Anwendungen der Etikettenglättung

Die Label-Glättung wurde in verschiedenen Bereichen der KI und des maschinellen Lernens erfolgreich eingesetzt. Hier sind ein paar Beispiele:

  1. Bildklassifizierung: Bei der Bildklassifizierung mit Ultralytics YOLO Modellen kann die Glättung von Bezeichnungen die Robustheit des Klassifizierers verbessern. Wenn du zum Beispiel ein Modell auf ImageNet trainierst, kann die Glättung von Bezeichnungen zu einer kleinen, aber signifikanten Erhöhung der Validierungsgenauigkeit führen. Dies ist besonders nützlich in Szenarien wie der medizinischen Bildanalyse, wo genaue und gut kalibrierte Wahrscheinlichkeitsschätzungen für die Diagnose entscheidend sind.

  2. Natürliche Sprachverarbeitung (NLP): Die Glättung von Bezeichnungen ist auch bei NLP-Aufgaben wie der maschinellen Übersetzung und der Sprachmodellierung von Vorteil. Beim Training großer Sprachmodelle wie GPT-3 oder GPT-4 kann das Glätten von Bezeichnungen beispielsweise die Fähigkeit des Modells verbessern, auf neue Sätze und Kontexte zu generalisieren. Sie kann auch den Fluss und die Kohärenz des generierten Textes verbessern, indem sie das Modell davon abhält, bei seinen Wortvorhersagen allzu deterministisch zu sein. Techniken wie das Prompt-Engineering können die verbesserte Kalibrierung durch das Label Smoothing weiter nutzen, um zuverlässigere und kontextbezogene Textausgaben zu produzieren.

Durch die Einbeziehung der Label-Glättung in den Trainingsprozess können Entwickler verlässlichere und robustere KI-Modelle erstellen, die in realen Szenarien besser abschneiden, insbesondere wenn sie leistungsstarke Modelle wie Ultralytics YOLOv8 für Sehaufgaben.

Alles lesen