Erfahren Sie, wie Sie Unteranpassung beim maschinellen Lernen erkennen und beheben können. Erforschen Sie Ursachen, Indikatoren und Möglichkeiten zur Optimierung von Ultralytics Modellen für eine höhere Genauigkeit.
Unteranpassung tritt auf, wenn ein maschinelles Lernmodell zu einfach ist oder nicht in der Lage ist, die zugrunde liegenden Trends und Muster innerhalb der Trainingsdaten zu erfassen. Konzeptionell ist dies vergleichbar mit dem Versuch, eine gerade Linie durch Datenpunkte zu legen, die eine deutliche Kurve bilden; das Modell kann die Komplexität der Beziehung zwischen Eingaben und Ausgaben nicht erfassen. Da das Modell die Daten nicht effektiv gelernt hat, zeigt es schlechte Leistung nicht nur beim Trainingssatz, sondern auch bei unbekannten Validierungsdaten, was zu einer geringen Vorhersagegenauigkeit führt. Dieses Phänomen ist oft das Ergebnis einer hohen Verzerrung in der KI, bei der der Algorithmus zu vereinfachende Annahmen über die Zielfunktion trifft.
Mehrere Faktoren können zu einem unterangepassten Modell führen. Die häufigste Ursache ist die Verwendung einer Modellarchitektur, die für die jeweilige Aufgabe nicht komplex genug ist, wie beispielsweise die Anwendung linearer Regression auf nichtlineare Daten. Eine unzureichende Trainingsdauer, bei der dem Modell nicht genügend Epochen zur Konvergenz zur Verfügung stehen, verhindert ebenfalls ein angemessenes Lernen. Darüber hinaus kann eineübermäßige Regularisierung– eine Technik, die normalerweise zur Vermeidung des gegenteiligen Problems eingesetzt wird – das Modell übermäßig einschränken und es daran hindern, wichtige Merkmale zu erfassen.
Ingenieure können Unteranpassung erkennen, indem sie die Verlustfunktionen während des Trainings überwachen. Wenn sowohl der Trainingsfehler als auch der Validierungsfehler hoch bleiben und nicht signifikant abnehmen, ist das Modell wahrscheinlich unterangepasst. Im Gegensatz zu effektivem Feature Engineering, das Modellen hilft, Daten zu verstehen, kann die Bereitstellung zu weniger Features dazu führen, dass dem Modell notwendige Informationen fehlen.
Es ist wichtig, Unteranpassung von ihrem Gegenstück, der Überanpassung, zu unterscheiden. Diese beiden Konzepte stellen die entgegengesetzten Enden des Bias-Varianz-Kompromisses dar.
Das Hauptziel der Modelloptimierung besteht darin, den „Sweet Spot“ zwischen diesen beiden Extremen zu finden.
Das Verständnis von Unteranpassung ist für die Entwicklung zuverlässiger KI-Systeme in verschiedenen Branchen von entscheidender Bedeutung.
In ComputervisionUnteranpassung tritt häufig auf
, wenn eine Modellvariante verwendet wird, die für die Schwierigkeit der Aufgabe zu klein ist (z. B. Erkennung kleiner Objekte in
hochauflösenden Drohnenbildern). Die folgenden Python Das Beispiel zeigt, wie man
mit Hilfe der ultralytics Bibliothek zur Behebung
möglicher Unteranpassung.
from ultralytics import YOLO
# If 'yolo26n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo26l.pt' (Large).
model = YOLO("yolo26l.pt")
# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Durch den Wechsel zu einem größeren Ultralytics und die Sicherstellung einer angemessenen Trainingsdauer erhält das System die notwendigen Parameter, um komplexe Muster zu lernen und so Unteranpassungen wirksam zu mindern. Um zu überprüfen, ob Ihr Modell nicht mehr unteranpasst ist, sollten Sie es immer anhand eines robusten Testdatensatzes bewerten. Für die Verwaltung von Datensätzen und die Verfolgung von Experimenten, um Unteranpassungen frühzeitig zu erkennen, bietet die Ultralytics umfassende Tools zur Visualisierung und Analyse.