Glossar

Underfitting

Lerne mit Expertentipps, Strategien und Beispielen aus der Praxis, wie du Underfitting in Machine-Learning-Modellen erkennen, verhindern und beheben kannst.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Im Bereich des maschinellen Lernens (ML) ist es für eine optimale Modellleistung erforderlich, ein Gleichgewicht zwischen Einfachheit und Komplexität zu finden. Underfitting ist ein häufiges Problem, wenn ein Modell zu simpel ist, um die zugrunde liegenden Muster in den Trainingsdaten zu erfassen. Das bedeutet, dass das Modell nicht effektiv lernt, was zu einer schlechten Leistung führt, nicht nur bei den Daten, mit denen es trainiert wurde, sondern auch bei neuen, unbekannten Daten(Testdaten oder realen Eingaben). Ein unzureichend angepasstes Modell verfügt nicht über die nötige Kapazität oder Trainingszeit, um die Beziehungen innerhalb der Daten genau darzustellen, was zu einer hohen Verzerrung und einer unzureichenden Generalisierungsfähigkeit führt.

Was sind die Ursachen für Underfitting?

Mehrere Faktoren können zu einem unzureichend angepassten Modell beitragen:

  • Unzureichende Modellkomplexität: Das gewählte Modell könnte für die Komplexität der Daten zu einfach sein. Zum Beispiel ein einfaches lineares Regressionsmodell für Daten mit nicht linearen Mustern oder ein neuronales Netzwerk (NN) mit zu wenigen Schichten oder Neuronen.
  • Unzureichendes Feature Engineering: Die dem Modell zur Verfügung gestellten Input-Features enthalten möglicherweise nicht genügend relevante Informationen oder repräsentieren die zugrunde liegenden Muster nicht effektiv.
  • Unzureichende Trainingsdaten: Das Modell hat möglicherweise nicht genügend Beispiele gesehen, um die zugrunde liegenden Muster zu lernen. Das gilt besonders für komplexe Deep-Learning-Modelle. Es ist wichtig, über vielfältige und repräsentative Daten zu verfügen, die auf Plattformen wie Ultralytics erforscht werden können.
  • Zu kurzes Training: Das Training des Modells kann vorzeitig abgebrochen werden, bevor es genügend Epochen hatte, um die Muster in den Daten zu lernen.
  • Übermäßige Regularisierung: Techniken, die zur Vermeidung von Overfitting eingesetzt werden, wie L1- oder L2-Regularisierung oder hohe Dropout-Raten, können das Modell manchmal zu stark einschränken und es daran hindern, notwendige Muster zu lernen, wenn sie zu stark angewendet werden.

Identifizierung von Underfitting

Die Unteranpassung wird in der Regel durch die Bewertung der Leistung des Modells während und nach dem Training diagnostiziert:

  • Hoher Trainingsfehler: Das Modell schneidet selbst bei den Daten, auf denen es trainiert wurde, schlecht ab. Wichtige Kennzahlen wie Genauigkeit, Präzision, Wiedererkennungswert oder F1-Score sind niedrig, und der Wert der Verlustfunktion bleibt hoch.
  • Hoher Validierungs-/Testfehler: Das Modell schneidet auch bei ungesehenen Validierungsdaten oder Testdaten schlecht ab. Der Leistungsunterschied zwischen Trainings- und Validierungsfehler ist normalerweise gering, aber beide Fehler sind inakzeptabel hoch.
  • Lernkurven: Wenn du die Trainings- und Validierungsverluste/-metriken gegen die Trainingsepochen aufträgst, kannst du ein Underfitting feststellen. Wenn beide Kurven bei einem hohen Fehlerniveau ein Plateau bilden, ist das Modell wahrscheinlich unzureichend angepasst. Du kannst sie mit Tools wie TensorBoard oder Weights & Biases. Es ist auch wichtig, die spezifischen YOLO zu verstehen.

Abhilfe bei Unteranpassung

Es gibt mehrere Strategien, die helfen können, die Unteranpassung zu überwinden:

  • Erhöhe die Modellkomplexität: Verwende eine leistungsfähigere Modellarchitektur mit mehr Parametern, Schichten oder Neuronen. Wenn du zum Beispiel von einem einfacheren CNN zu einer fortschrittlicheren Architektur wie Ultralytics YOLO11 für Aufgaben der Objekterkennung.
  • Verbessere das Feature Engineering: Erstelle informativere Merkmale aus den vorhandenen Daten oder integriere neue relevante Datenquellen.
  • Trainingsdauer erhöhen: Trainiere das Modell für mehr Epochen, damit es genügend Zeit hat, die Datenmuster zu lernen. Schau dir die Tipps zur Modellschulung an, um dich zu orientieren.
  • Regularisierung reduzieren: Verringere die Stärke der Regularisierungstechniken (z. B. verringere den Regularisierungsparameter lambda, verringere die Dropout-Wahrscheinlichkeit).
  • Sorge für ausreichend Daten: Sammle mehr Trainingsbeispiele. Wenn das Sammeln weiterer Daten nicht möglich ist, können Techniken wie die Datenerweiterung die Vielfalt der Trainingsdaten künstlich erhöhen. Die Verwaltung von Datensätzen kann mit Plattformen wie Ultralytics HUB vereinfacht werden.

Underfitting vs. Overfitting

Underfitting und Overfitting sind zwei Seiten derselben Medaille und stehen für Fehler bei der Modellgeneralisierung.

  • Underfitting: Das Modell ist zu einfach (hohe Verzerrung). Es schafft es nicht, die zugrunde liegenden Trends in den Daten zu erfassen, was zu einer schlechten Leistung sowohl bei den Trainings- als auch bei den Testsätzen führt.
  • Überanpassung: Das Modell ist zu komplex (hohe Varianz). Es lernt die Trainingsdaten zu gut, einschließlich des Rauschens und der zufälligen Schwankungen, was zu einer exzellenten Leistung in der Trainingsmenge, aber zu einer schlechten Leistung bei den ungesehenen Daten führt.

Das Ziel von ML ist es, einen Sweet Spot zwischen Underfitting und Overfitting zu finden, der oft im Zusammenhang mit dem Bias-Variance-Tradeoff diskutiert wird, bei dem das Modell die wahren zugrunde liegenden Muster lernt, ohne sich das Rauschen zu merken.

Beispiele aus der realen Welt für Underfitting

  1. Einfacher Bildklassifikator: Ein sehr einfaches Convolutional Neural Network (CNN) ( z. B. mit nur einer oder zwei Faltungsschichten) auf eine komplexe Bildklassifizierungsaufgabe wie die Klassifizierung von Tausenden von Objektkategorien im ImageNet trainieren. Das Modell würde wahrscheinlich nicht richtig funktionieren, weil seine begrenzte Kapazität es daran hindert, die komplizierten Merkmale zu lernen, die für eine effektive Unterscheidung zwischen vielen Klassen erforderlich sind. Sowohl die Trainings- als auch die Validierungsgenauigkeit würden niedrig bleiben.
  2. Grundlegende vorausschauende Wartung: Die Verwendung eines einfachen linearen Modells zur Vorhersage von Maschinenausfällen, das nur auf der Betriebstemperatur basiert. Wenn Ausfälle tatsächlich durch ein komplexes Zusammenspiel von Faktoren wie Vibration, Alter, Druck und Temperatur beeinflusst werden, ist das lineare Modell nicht ausreichend geeignet. Es kann die tatsächliche Komplexität nicht erfassen, was zu einer schlechten Vorhersageleistung führt und Ausfälle nicht genau vorhersagen kann. Die Verwendung komplexerer Modelle oder besserer Funktionen wäre notwendig. Frameworks wie PyTorch oder TensorFlow bieten Werkzeuge, um komplexere Modelle zu erstellen.
Alles lesen