Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Regularisierung

Erfahren Sie, wie Regularisierung Überanpassung beim maschinellen Lernen verhindert. Lernen Sie, wie Sie Dropout und Weight Decay mit Ultralytics implementieren, um die Modellgeneralisierung zu verbessern.

Regularisierung ist eine Reihe von Techniken, die im maschinellen Lernen eingesetzt werden, um zu verhindern, dass Modelle zu komplex werden, und um ihre Fähigkeit zur Verallgemeinerung auf neue, unbekannte Daten zu verbessern. Im Trainingsprozess versucht ein Modell, seine Fehler zu minimieren, oft indem es komplexe Muster innerhalb der Trainingsdaten lernt. Ohne Einschränkungen kann das Modell jedoch beginnen, Rauschen und Ausreißer zu speichern – ein Problem, das als Überanpassung bekannt ist. Die Regularisierung behebt dieses Problem, indem sie eine Strafe zur Verlustfunktion des Modells hinzufügt, wodurch extreme Parameterwerte effektiv verhindert werden und der Algorithmus gezwungen wird, glattere, robustere Muster zu lernen.

Kernkonzepte und Techniken

Das Prinzip der Regularisierung wird oft mit Ockhams Rasiermesser verglichen, das besagt, dass die einfachste Lösung in der Regel die richtige ist. Durch die Einschränkung des Modells stellen Entwickler sicher, dass es sich auf die wichtigsten Merkmale der Daten konzentriert und nicht auf zufällige Korrelationen.

In modernen Deep-Learning-Frameworks werden mehrere gängige Methoden zur Implementierung der Regularisierung verwendet :

  • L1- und L2-Regularisierung: Diese Techniken fügen einen Strafterm hinzu, der auf der Größe der Modellgewichte basiert. Die L2-Regularisierung, auch bekannt als Ridge-Regression oder Gewichtsabfall, bestraft große Gewichte stark und fördert damit kleine und diffuse Gewichte. Die L1-Regularisierung oder Lasso-Regression kann einige Gewichte auf Null bringen und so effektiv eine Merkmalsauswahl durchführen.
  • Dropout: Speziell in neuronalen Netzen verwendet, deaktiviert eine Dropout-Schicht während des Trainings zufällig einen Prozentsatz der Neuronen. Dies zwingt das Netz, redundante Pfade zur Identifizierung von Merkmalen zu entwickeln, wodurch sichergestellt wird, dass kein einzelnes Neuron zu einem Engpass für eine bestimmte Vorhersage wird.
  • Datenvergrößerung: Obwohl es sich in erster Linie um einen Vorverarbeitungsschritt handelt, fungiert die Datenvergrößerung als leistungsstarker Regularisierer. Durch die künstliche Erweiterung des Datensatzes mit modifizierten Versionen von Bildern (Drehungen, Spiegelungen, Farbverschiebungen ) wird das Modell einer größeren Variabilität ausgesetzt, wodurch verhindert wird, dass es sich die ursprünglichen statischen Beispiele einprägt.
  • Frühzeitiges Beenden: Dabei wird die Leistung des Modells anhand der Validierungsdaten während des Trainings überwacht. Wenn der Validierungsfehler zu steigen beginnt, während der Trainingsfehler sinkt, wird der Prozess angehalten, um zu verhindern, dass das Modell Rauschen lernt.

Anwendungsfälle in der Praxis

Die Regularisierung ist unverzichtbar, um zuverlässige KI-Systeme in verschiedenen Branchen einzusetzen, in denen die Datenvariabilität hoch ist .

  1. Autonomes Fahren: Bei KI-Lösungen für die Automobilindustrie müssen Computer-Vision-Modelle detect und Verkehrszeichen unter verschiedenen Wetterbedingungen detect . Ohne Regularisierung könnte ein Modell bestimmte Lichtverhältnisse aus dem Trainingssatz speichern und in der realen Welt versagen. Techniken wie Gewichtsabnahme sorgen dafür, dass das Erkennungssystem gut auf Regen, Nebel oder Blendung generalisiert, was für die Sicherheit in autonomen Fahrzeugen entscheidend ist.
  2. Medizinische Bildgebung: Bei der medizinischen Bildanalyse sind Datensätze aufgrund von Datenschutzbedenken oder der Seltenheit von Erkrankungen oft in ihrer Größe begrenzt. Überanpassung ist hier ein erhebliches Risiko. Regularisierungsmethoden tragen dazu bei, dass Modelle, die für detect in Röntgenbildern oder MRT-Aufnahmen trainiert wurden, auch bei neuen Patientendaten genau bleiben und so bessere Diagnoseergebnisse in der Gesundheits-KI unterstützen.

Implementierung in Python

Moderne Bibliotheken machen die Anwendung der Regularisierung über Hyperparameter einfach. Das folgende Beispiel zeigt, wie man sie anwendet dropout und weight_decay beim Training der YOLO26 Modell.

from ultralytics import YOLO

# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")

# Train with regularization hyperparameters
# 'dropout' adds randomness, 'weight_decay' penalizes large weights to prevent overfitting
model.train(data="coco8.yaml", epochs=100, dropout=0.5, weight_decay=0.0005)

Die Verwaltung dieser Experimente und die Verfolgung, wie sich unterschiedliche Regularisierungswerte auf die Leistung auswirken, kann nahtlos über die Ultralytics erfolgen, die Tools für die Protokollierung und den Vergleich von Trainingsläufen bietet.

Regularisierung vs. verwandte Konzepte

Es ist hilfreich, die Regularisierung von anderen Optimierungs- und Vorverarbeitungsbegriffen zu unterscheiden:

  • Regularisierung vs. Normalisierung: Bei der Normalisierung werden die Eingabedaten auf einen Standardbereich skaliert, um die Konvergenz zu beschleunigen. Während Techniken wie Batch-Normalisierung einen leichten Regularisierungseffekt haben können, besteht ihr Hauptzweck darin, die Lerndynamik zu stabilisieren, während die Regularisierung explizit die Komplexität Komplexität bestraft.
  • Regularisierung vs. Hyperparameter-Tuning: Regularisierungsparameter (wie die Dropout-Rate oder die L2-Strafe) sind selbst Hyperparameter. Das Hyperparameter-Tuning ist der umfassendere Prozess der Suche nach den optimalen Werten für diese Einstellungen, oft um den Bias-Varianz-Kompromiss auszugleichen.
  • Regularisierung vs. Ensemble-Lernen: Ensemble-Methoden kombinieren Vorhersagen aus mehreren Modellen, um die Varianz zu verringern und die Generalisierung zu verbessern. Während ein ähnliches Ziel wie die Regularisierung, jedoch durch die Zusammenfassung verschiedener Modelle und nicht durch die Einschränkung das Lernen eines einzelnen Modells.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten