Glossar

Regulierung

Verhindere Überanpassung und verbessere die Modellgeneralisierung mit Regularisierungstechniken wie L1, L2, Dropout und frühem Stoppen. Erfahre mehr!

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Regularisierung ist eine Reihe von Techniken, die beim maschinellen Lernen (ML) eingesetzt werden, um ein häufiges Problem namens Overfitting zu verhindern. Overfitting tritt auf, wenn ein Modell die Trainingsdaten zu gut lernt, einschließlich des Rauschens und der zufälligen Schwankungen, was sich negativ auf die Leistung des Modells bei neuen, ungesehenen Daten auswirkt. Regularisierungsmethoden führen einen Malus für die Modellkomplexität ein und ermutigen das Modell, einfachere Muster zu lernen, die sich besser auf neue Daten verallgemeinern lassen. Dies ist entscheidend für den Aufbau robuster KI-Modelle, wie sie z. B. in der Computer Vision (CV) und der natürlichen Sprachverarbeitung (NLP) verwendet werden.

Bedeutung für maschinelles Lernen

Regularisierung ist grundlegend für das Training zuverlässiger ML-Modelle, insbesondere komplexer Modelle wie Deep-Learning-Modelle (DL) und neuronale Netze (NN). Ohne Regularisierung können sich diese Modelle leicht an die Trainingsdaten erinnern, anstatt die zugrunde liegenden Muster zu lernen. Das führt zu einer hohen Genauigkeit bei den Trainingsdaten, aber zu einer schlechten Leistung bei den Validierungsdaten oder realen Eingaben. Durch das Hinzufügen eines Straffaktors zur Verlustfunktion hilft die Regularisierung, die Größe der Modellgewichte zu kontrollieren, das Modell effektiv zu vereinfachen und seine Fähigkeit zur Generalisierung zu verbessern. Dieses Gleichgewicht zwischen der Anpassung an die Daten und der Beibehaltung der Einfachheit wird oft im Zusammenhang mit dem Kompromiss zwischen Verzerrung und Varianz diskutiert. Für Modelle wie Ultralytics YOLOträgt die Regularisierung dazu bei, bei anspruchsvollen Aufgaben wie der Objekterkennung in Echtzeit eine hohe Genauigkeit zu erreichen.

Gängige Regularisierungstechniken

Verschiedene Regularisierungstechniken werden häufig verwendet:

  • L1 Regularisierung (Lasso): Fügt eine Strafe in Höhe des absoluten Werts der Koeffizienten hinzu. Dies kann dazu führen, dass einige Gewichte genau Null werden, wodurch eine effektive Merkmalsauswahl stattfindet. Erfahre mehr über Lasso-Regression.
  • L2 Regularisierung (Ridge): Fügt eine Strafe hinzu, die dem Quadrat der Koeffizientengröße entspricht. Sie lässt die Gewichte gegen Null schrumpfen, macht sie aber selten genau Null. Erfahre mehr über die Ridge-Regression.
  • Dropout-Schicht: Die Dropout-Schicht wird vor allem in neuronalen Netzen verwendet und setzt einen Teil der Neuronenausgänge während des Trainings zufällig auf Null. Dadurch wird verhindert, dass sich die Neuronen zu sehr angleichen und das Netz wird gezwungen, robustere Merkmale zu lernen. Weitere Informationen findest du in der Originalarbeit zu Dropout.
  • Frühzeitiges Stoppen: Überwacht die Leistung des Modells auf einem Validierungsset während des Trainings und stoppt den Trainingsprozess, wenn sich die Leistung nicht mehr verbessert, um eine Überanpassung des Modells im Laufe des Trainings zu verhindern. Dies ist eine gängige Praxis, die in den Tipps zur Modellschulung beschrieben wird.
  • Datenerweiterung: Erhöht die Vielfalt der Trainingsdaten, indem zufällige Transformationen (wie Drehen, Skalieren, Beschneiden) auf die vorhandenen Daten angewendet werden. Dadurch wird das Modell anpassungsfähiger an solche Veränderungen. Erforsche Techniken zur Datenerweiterung.

Unterschiede zu verwandten Konzepten

Die Regularisierung unterscheidet sich von anderen wichtigen ML-Konzepten:

  • Optimierungsalgorithmus: Algorithmen wie Gradient Descent oder der Adam Optimizer werden verwendet, um die Verlustfunktion zu minimieren und die Modellparameter während des Trainings zu aktualisieren. Die Regularisierung verändert diese Verlustfunktion, indem sie einen Strafbegriff hinzufügt, der den Optimierungsprozess in Richtung einfacherer Modelle lenkt, aber sie ist nicht der eigentliche Optimierungsalgorithmus.
  • Abstimmung der Hyperparameter: Hier geht es darum, die optimalen Hyperparameter (z. B. Lernrate, Anzahl der Schichten) für ein Modell zu finden. Dazu werden häufig Techniken wie die Gittersuche oder automatisierte Methoden verwendet, die in Plattformen wie Ultralytics HUB verfügbar sind. Die Stärke der Regularisierung (z. B. der Strafkoeffizient in L1/L2) ist selbst ein Hyperparameter, der abgestimmt werden muss, aber die Regularisierung ist die angewandte Technik, während beim Hyperparameter-Tuning die Stärke der Regularisierung zusammen mit anderen Parametern festgelegt wird.

Anwendungen in der realen Welt

Regularisierungstechniken sind für den praktischen Erfolg vieler KI-Anwendungen unerlässlich:

Beispiel 1: Bildklassifizierung

Bei der Bildklassifizierung können tiefe neuronale Netze wie CNNs Millionen von Parametern haben. Ohne Regularisierung (wie Dropout oder L2) können sich diese Modelle leicht zu stark an Datensätze wie ImageNet anpassen. Die Regularisierung sorgt dafür, dass das Modell allgemeine visuelle Merkmale (Kanten, Texturen, Formen) lernt, anstatt sich spezifische Trainingsbilder zu merken. Das führt zu einer besseren Klassifizierungsgenauigkeit bei neuen Bildern, die in Anwendungen von der medizinischen Bildanalyse bis zum autonomen Fahren vorkommen. Hier erfährst du, wie Overfitting in Computer Vision Projekten behandelt wird.

Beispiel 2: Natürliche Sprachverarbeitung

Bei NLP-Aufgaben wie der Sentimentanalyse oder der maschinellen Übersetzung können Modelle wie Transformers ebenfalls unter einer Überanpassung leiden, insbesondere bei begrenzten Trainingsdaten. Regularisierungstechniken wie Dropout und Weight Decay (L2) werden eingesetzt, um zu verhindern, dass sich das Modell zu sehr auf bestimmte Wörter oder Phrasen verlässt, die nur im Trainingskorpus vorkommen. Dies verbessert die Fähigkeit des Modells, menschliche Sprache in realen Szenarien wie Chatbots oder Tools zur Inhaltszusammenfassung besser zu verstehen und zu generieren.

Alles lesen