Erfahre, was Underfitting ist, seine Ursachen, Anzeichen und Lösungen. Erfahre, wie du die Leistung deines Modells verbessern und Probleme mit Underfitting vermeiden kannst.
Underfitting liegt vor, wenn ein maschinelles Lernmodell zu einfach ist, um die zugrunde liegende Struktur der Daten zu erfassen. Das passiert in der Regel, wenn das Modell im Verhältnis zur Komplexität der Daten, die es zu lernen versucht, zu wenige Parameter oder Merkmale hat. Infolgedessen lernt das Modell nicht ausreichend aus den Trainingsdaten und schneidet nicht nur bei den Trainingsdaten, sondern auch bei ungesehenen Daten, wie z. B. einer Validierungs- oder Testmenge, schlecht ab.
Underfit-Modelle zeichnen sich oft durch eine hohe Verzerrung und eine geringe Varianz aus. Die Verzerrung bezieht sich auf den Fehler, der dadurch entsteht, dass ein reales Problem, das komplex sein kann, durch ein vereinfachtes Modell approximiert wird. Ein unzureichend angepasstes Modell geht von zu vereinfachten Annahmen über die Daten aus, was zu systematischen Fehlern führt. Die Varianz hingegen bezieht sich auf die Empfindlichkeit des Modells gegenüber Schwankungen in den Trainingsdaten. Underfit-Modelle weisen eine geringe Varianz auf, weil sie zu einfach sind, um von Veränderungen in den Trainingsdaten stark beeinflusst zu werden. Diese Einfachheit bedeutet aber auch, dass sie wichtige Muster und Nuancen in den Daten nicht erfassen können.
Mehrere Faktoren können zu einer Unteranpassung beitragen:
Um die Leistung eines Modells zu verbessern, ist es wichtig, die Unteranpassung zu erkennen. Anzeichen für eine Unteranpassung sind u.a.:
Um die Unteranpassung zu bekämpfen, kannst du die folgenden Strategien anwenden:
Es ist wichtig, zwischen Underfitting und Overfitting zu unterscheiden. Während Underfitting auftritt, wenn ein Modell zu einfach ist, passiert Overfitting, wenn ein Modell zu komplex ist und anfängt, sich die Trainingsdaten zu merken, einschließlich Rauschen und Ausreißer. Überangepasste Modelle schneiden bei den Trainingsdaten besonders gut ab, aber bei ungesehenen Daten schlecht. Das Gleichgewicht zwischen Modellkomplexität und Training ist entscheidend, um sowohl Underfitting als auch Overfitting zu vermeiden.
Stell dir vor, du erstellst ein Modell zur Vorhersage von Hauspreisen auf der Grundlage ihrer Größe. Wenn du ein einfaches lineares Regressionsmodell verwendest und annimmst, dass die Hauspreise linear mit der Größe steigen, könnte es sein, dass du die Daten unterschätzt. In Wirklichkeit ist die Beziehung zwischen Hausgröße und Preis wahrscheinlich komplexer und beinhaltet Faktoren wie abnehmende Erträge für größere Häuser oder höhere Preise für bestimmte Größenklassen. Ein lineares Modell würde diese Nuancen nicht erfassen, was zu einer schlechten Vorhersageleistung sowohl bei den Trainingsdaten als auch bei den neuen Daten führen würde.
Stell dir eine Bildklassifizierungsaufgabe vor, bei der du versuchst, Bilder von Tieren in verschiedene Kategorien zu klassifizieren. Wenn du ein sehr einfaches Modell wie die logistische Regression verwendest, könnte es sein, dass du die Daten nicht richtig einordnest. Bei der Bildklassifizierung müssen oft komplexe Muster und Merkmale in den Bildern erfasst werden, was ein einfaches Modell nicht leisten kann. Infolgedessen würde das Modell sowohl bei der Trainingsmenge als auch bei neuen, ungesehenen Bildern schlecht abschneiden. Die Verwendung eines komplexeren Modells, wie z. B. eines Faltungsneuronalen Netzwerks (CNN), kann die Leistung erheblich verbessern.
Wenn du die Ursachen und Anzeichen für eine unzureichende Anpassung verstehst, kannst du geeignete Maßnahmen ergreifen, um deine Modelle zu verbessern. Tools wie Ultralytics YOLOv8 bieten fortschrittliche Funktionen für die Erstellung und Optimierung komplexer Modelle, die helfen, Underfitting zu vermeiden und die Leistung bei verschiedenen Computer-Vision-Aufgaben zu verbessern. Weitere Einblicke in das Training und die Optimierung von Modellen findest du im Ultralytics Blog.