Lerne, wie du mit Techniken wie Datenerweiterung, Regularisierung und Kreuzvalidierung eine Überanpassung beim maschinellen Lernen erkennen und verhindern kannst.
Überanpassung ist ein häufiges Problem beim maschinellen Lernen, bei dem ein Modell die Trainingsdaten zu gut erlernt, einschließlich des Rauschens und der Ausreißer. Das Ergebnis ist ein Modell, das bei den Trainingsdaten außergewöhnlich gut abschneidet, aber bei ungesehenen Daten, z. B. einem Validierungs- oder Testsatz, schlecht abschneidet. Das Modell versagt bei der Verallgemeinerung und erfasst eher die spezifischen Details der Trainingsdaten als die zugrunde liegenden Muster.
Um eine Überanpassung festzustellen, muss die Leistung des Modells sowohl bei den Trainingsdaten als auch bei separaten Validierungsdaten überwacht werden. Ein signifikanter Unterschied in der Leistung zwischen diesen beiden Datensätzen deutet auf eine mögliche Überanpassung hin. Verschiedene Techniken können helfen, eine Überanpassung zu verhindern:
Die Überanpassung ist bei verschiedenen Anwendungen des maschinellen Lernens (ML) ein kritisches Problem, das die Zuverlässigkeit und Genauigkeit von Modellen in realen Szenarien beeinträchtigt. Im Bereich des maschinellen Sehens (CV) kann ein überangepasstes Modell zum Beispiel bestimmte Objekte in den Trainingsbildern gut erkennen, aber nicht auf neue, ungesehene Bilder generalisieren.
Im Gesundheitswesen kann ein überangepasstes Modell Krankheiten auf der Grundlage des Trainingsdatensatzes richtig diagnostizieren, aber versagen, wenn es mit neuen Patientendaten konfrontiert wird. Ein Modell, das für die Erkennung von Hirntumoren anhand einer begrenzten Anzahl von MRT-Scans trainiert wurde, lernt möglicherweise die spezifischen Merkmale dieser Scans und nicht die allgemeinen Merkmale von Tumoren. Das kann zu Fehldiagnosen führen, wenn das Modell auf Scans von anderen Patienten oder Bildgebungsgeräten trifft. Mehr über KI im Gesundheitswesen.
Im Zusammenhang mit autonomen Fahrzeugen kann ein überangepasstes Objekterkennungsmodell in Simulationen oder kontrollierten Umgebungen einwandfrei funktionieren, aber unter verschiedenen, realen Fahrbedingungen Probleme bereiten. Ein Modell, das nur auf Bilder von Fußgängern bei sonnigem Wetter trainiert wurde, kann zum Beispiel Fußgänger bei Regen oder Schnee nicht erkennen. Weitere Informationen zur Objekterkennung findest du auf der Website Ultralytics .
Underfitting ist das Gegenteil von Overfitting. Es tritt auf, wenn ein Modell zu einfach ist, um die zugrundeliegenden Muster in den Daten zu erfassen, was zu einer schlechten Leistung sowohl in den Trainings- als auch in den Validierungssätzen führt. Dies ist oft auf eine unzureichende Modellkomplexität oder unzureichendes Training zurückzuführen.
Der Bias-Variance-Tradeoff ist ein grundlegendes Konzept des maschinellen Lernens, das sich auf Overfitting und Underfitting bezieht. Ein hoher Bias führt zu Underfitting, während eine hohe Varianz zu Overfitting führt. Um ein gut verallgemeinerbares Modell zu erstellen, ist es wichtig, diese beiden Faktoren auszugleichen.
Verschiedene Tools und Technologien können dabei helfen, das Overfitting zu verringern. Ultralytics YOLO Unsere Modelle enthalten zum Beispiel verschiedene Techniken zur Vermeidung von Overfitting, wie z. B. fortschrittliche Datenerweiterungs- und Regularisierungsmethoden. Außerdem bieten Plattformen wie Ultralytics HUB Werkzeuge zur Überwachung der Modellleistung und zur Anpassung der Hyperparameter, um optimale Ergebnisse zu erzielen.
Frameworks wie TensorFlow und PyTorch bieten umfangreiche Unterstützung bei der Implementierung von Regularisierungstechniken, Kreuzvalidierung und anderen Methoden zur Bekämpfung von Overfitting. Diese Tools bieten die nötige Flexibilität, um robuste und zuverlässige Machine-Learning-Modelle zu erstellen.