Glossar

Überanpassung

Lerne, wie du mit Techniken wie Datenerweiterung, Regularisierung und Kreuzvalidierung eine Überanpassung beim maschinellen Lernen erkennen und verhindern kannst.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Überanpassung ist ein häufiges Problem beim maschinellen Lernen, bei dem ein Modell die Trainingsdaten zu gut erlernt, einschließlich des Rauschens und der Ausreißer. Das Ergebnis ist ein Modell, das bei den Trainingsdaten außergewöhnlich gut abschneidet, aber bei ungesehenen Daten, z. B. einem Validierungs- oder Testsatz, schlecht abschneidet. Das Modell versagt bei der Verallgemeinerung und erfasst eher die spezifischen Details der Trainingsdaten als die zugrunde liegenden Muster.

Erkennen und Verhindern von Overfitting

Um eine Überanpassung festzustellen, muss die Leistung des Modells sowohl bei den Trainingsdaten als auch bei separaten Validierungsdaten überwacht werden. Ein signifikanter Unterschied in der Leistung zwischen diesen beiden Datensätzen deutet auf eine mögliche Überanpassung hin. Verschiedene Techniken können helfen, eine Überanpassung zu verhindern:

  • Datenerweiterung: Eine Vergrößerung und Diversifizierung des Trainingsdatensatzes durch Datenerweiterung kann dem Modell helfen, robustere Merkmale zu lernen.
  • Kreuzvalidierung: Mithilfe von Techniken wie der K-Fold-Kreuzvalidierung lässt sich feststellen, wie gut das Modell auf neue Daten verallgemeinert.
  • Regularisierung: Regularisierungsmethoden wie die L1- und L2-Regularisierung fügen der Verlustfunktion einen Strafterm hinzu, um zu komplexe Modelle zu verhindern.
  • Frühzeitiges Abbrechen: Wenn du die Leistung des Modells in einer Validierungsgruppe überwachst und das Training abbrichst, wenn die Leistung nachlässt, kannst du ein Overfitting verhindern.
  • Einfachere Modelle: Die Wahl eines weniger komplexen Modells mit weniger Parametern kann das Risiko einer Überanpassung verringern, besonders wenn der Datensatz klein ist.

Relevanz und Auswirkungen

Die Überanpassung ist bei verschiedenen Anwendungen des maschinellen Lernens (ML) ein kritisches Problem, das die Zuverlässigkeit und Genauigkeit von Modellen in realen Szenarien beeinträchtigt. Im Bereich des maschinellen Sehens (CV) kann ein überangepasstes Modell zum Beispiel bestimmte Objekte in den Trainingsbildern gut erkennen, aber nicht auf neue, ungesehene Bilder generalisieren.

Beispiele aus der realen Welt

Medizinische Diagnose

Im Gesundheitswesen kann ein überangepasstes Modell Krankheiten auf der Grundlage des Trainingsdatensatzes richtig diagnostizieren, aber versagen, wenn es mit neuen Patientendaten konfrontiert wird. Ein Modell, das für die Erkennung von Hirntumoren anhand einer begrenzten Anzahl von MRT-Scans trainiert wurde, lernt möglicherweise die spezifischen Merkmale dieser Scans und nicht die allgemeinen Merkmale von Tumoren. Das kann zu Fehldiagnosen führen, wenn das Modell auf Scans von anderen Patienten oder Bildgebungsgeräten trifft. Mehr über KI im Gesundheitswesen.

Autonome Fahrzeuge

Im Zusammenhang mit autonomen Fahrzeugen kann ein überangepasstes Objekterkennungsmodell in Simulationen oder kontrollierten Umgebungen einwandfrei funktionieren, aber unter verschiedenen, realen Fahrbedingungen Probleme bereiten. Ein Modell, das nur auf Bilder von Fußgängern bei sonnigem Wetter trainiert wurde, kann zum Beispiel Fußgänger bei Regen oder Schnee nicht erkennen. Weitere Informationen zur Objekterkennung findest du auf der Website Ultralytics .

Unterscheidende Begriffe

Underfitting

Underfitting ist das Gegenteil von Overfitting. Es tritt auf, wenn ein Modell zu einfach ist, um die zugrundeliegenden Muster in den Daten zu erfassen, was zu einer schlechten Leistung sowohl in den Trainings- als auch in den Validierungssätzen führt. Dies ist oft auf eine unzureichende Modellkomplexität oder unzureichendes Training zurückzuführen.

Verzerrungs-Varianz-Kompromiss

Der Bias-Variance-Tradeoff ist ein grundlegendes Konzept des maschinellen Lernens, das sich auf Overfitting und Underfitting bezieht. Ein hoher Bias führt zu Underfitting, während eine hohe Varianz zu Overfitting führt. Um ein gut verallgemeinerbares Modell zu erstellen, ist es wichtig, diese beiden Faktoren auszugleichen.

Werkzeuge und Technologien

Verschiedene Tools und Technologien können dabei helfen, das Overfitting zu verringern. Ultralytics YOLO Unsere Modelle enthalten zum Beispiel verschiedene Techniken zur Vermeidung von Overfitting, wie z. B. fortschrittliche Datenerweiterungs- und Regularisierungsmethoden. Außerdem bieten Plattformen wie Ultralytics HUB Werkzeuge zur Überwachung der Modellleistung und zur Anpassung der Hyperparameter, um optimale Ergebnisse zu erzielen.

Frameworks wie TensorFlow und PyTorch bieten umfangreiche Unterstützung bei der Implementierung von Regularisierungstechniken, Kreuzvalidierung und anderen Methoden zur Bekämpfung von Overfitting. Diese Tools bieten die nötige Flexibilität, um robuste und zuverlässige Machine-Learning-Modelle zu erstellen.

Alles lesen