Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Underfitting

Erfahren Sie, wie Sie Unteranpassung beim maschinellen Lernen erkennen und beheben können. Erforschen Sie Ursachen, Indikatoren und Möglichkeiten zur Optimierung von Ultralytics Modellen für eine höhere Genauigkeit.

Unteranpassung tritt auf, wenn ein maschinelles Lernmodell zu einfach ist oder nicht in der Lage ist, die zugrunde liegenden Trends und Muster innerhalb der Trainingsdaten zu erfassen. Konzeptionell ist dies vergleichbar mit dem Versuch, eine gerade Linie durch Datenpunkte zu legen, die eine deutliche Kurve bilden; das Modell kann die Komplexität der Beziehung zwischen Eingaben und Ausgaben nicht erfassen. Da das Modell die Daten nicht effektiv gelernt hat, zeigt es schlechte Leistung nicht nur beim Trainingssatz, sondern auch bei unbekannten Validierungsdaten, was zu einer geringen Vorhersagegenauigkeit führt. Dieses Phänomen ist oft das Ergebnis einer hohen Verzerrung in der KI, bei der der Algorithmus zu vereinfachende Annahmen über die Zielfunktion trifft.

Ursachen und Indikatoren

Mehrere Faktoren können zu einem unterangepassten Modell führen. Die häufigste Ursache ist die Verwendung einer Modellarchitektur, die für die jeweilige Aufgabe nicht komplex genug ist, wie beispielsweise die Anwendung linearer Regression auf nichtlineare Daten. Eine unzureichende Trainingsdauer, bei der dem Modell nicht genügend Epochen zur Konvergenz zur Verfügung stehen, verhindert ebenfalls ein angemessenes Lernen. Darüber hinaus kann eineübermäßige Regularisierung– eine Technik, die normalerweise zur Vermeidung des gegenteiligen Problems eingesetzt wird – das Modell übermäßig einschränken und es daran hindern, wichtige Merkmale zu erfassen.

Ingenieure können Unteranpassung erkennen, indem sie die Verlustfunktionen während des Trainings überwachen. Wenn sowohl der Trainingsfehler als auch der Validierungsfehler hoch bleiben und nicht signifikant abnehmen, ist das Modell wahrscheinlich unterangepasst. Im Gegensatz zu effektivem Feature Engineering, das Modellen hilft, Daten zu verstehen, kann die Bereitstellung zu weniger Features dazu führen, dass dem Modell notwendige Informationen fehlen.

Unteranpassung vs. Überanpassung

Es ist wichtig, Unteranpassung von ihrem Gegenstück, der Überanpassung, zu unterscheiden. Diese beiden Konzepte stellen die entgegengesetzten Enden des Bias-Varianz-Kompromisses dar.

  • Unteranpassung (hohe Verzerrung): Das Modell ist zu starr. Es schneidet sowohl bei Trainings- als auch bei Testdaten schlecht ab, da es das grundlegende Signal nicht gelernt hat.
  • Überanpassung (hohe Varianz): Das Modell ist zu flexibel. Es speichert die Trainingsdaten einschließlich Rauschen und erzielt während des Trainings außergewöhnlich gute Ergebnisse, kann jedoch keine Verallgemeinerung auf neue Beispiele vornehmen.

Das Hauptziel der Modelloptimierung besteht darin, den „Sweet Spot“ zwischen diesen beiden Extremen zu finden.

Anwendungsfälle in der Praxis

Das Verständnis von Unteranpassung ist für die Entwicklung zuverlässiger KI-Systeme in verschiedenen Branchen von entscheidender Bedeutung.

  • Autonomes Fahren: Im Zusammenhang mit autonomen Fahrzeugen könnte ein unterdimensioniertes Objekterkennungsmodell in komplexen städtischen Umgebungen möglicherweise nicht zwischen einem Fußgänger und einem Laternenpfahl unterscheiden. Da dem Modell die Parameter zum Erlernen der subtilen visuellen Unterschiede fehlen, gefährdet es die Sicherheit der KI.
  • Medizinische Diagnostik: Bei der Anwendung der medizinischen Bildanalyse zur detect wie Tumoren kann ein zu einfaches Modell kleine oder unregelmäßige Wucherungen übersehen. Ist das neuronale Netzwerk zu flach, kann es die komplexen Strukturen, die für eine hohe Sensitivität und Spezifität erforderlich sind, nicht erlernen, was zu Fehldiagnosen führt.

Behebung von Unteranpassung mit Code

In ComputervisionUnteranpassung tritt häufig auf , wenn eine Modellvariante verwendet wird, die für die Schwierigkeit der Aufgabe zu klein ist (z. B. Erkennung kleiner Objekte in hochauflösenden Drohnenbildern). Die folgenden Python Das Beispiel zeigt, wie man mit Hilfe der ultralytics Bibliothek zur Behebung möglicher Unteranpassung.

from ultralytics import YOLO

# If 'yolo26n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo26l.pt' (Large).
model = YOLO("yolo26l.pt")

# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Durch den Wechsel zu einem größeren Ultralytics und die Sicherstellung einer angemessenen Trainingsdauer erhält das System die notwendigen Parameter, um komplexe Muster zu lernen und so Unteranpassungen wirksam zu mindern. Um zu überprüfen, ob Ihr Modell nicht mehr unteranpasst ist, sollten Sie es immer anhand eines robusten Testdatensatzes bewerten. Für die Verwaltung von Datensätzen und die Verfolgung von Experimenten, um Unteranpassungen frühzeitig zu erkennen, bietet die Ultralytics umfassende Tools zur Visualisierung und Analyse.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten