Grüner Scheck
Link in die Zwischenablage kopiert

Was ist Overfitting in der Computer Vision und wie kann man es verhindern?

Lerne, was Overfitting in der Computer Vision ist und wie du es mit Datenerweiterung, Regularisierung und vortrainierten Modellen verhindern kannst.

Computer-Vision-Modelle wurden entwickelt, um Muster zu erkennen, Objekte zu entdecken und Bilder zu analysieren. Ihre Leistung hängt jedoch davon ab, wie gut sie auf ungesehene Daten verallgemeinert werden können. Die Generalisierung ist die Fähigkeit des Modells, auch auf neuen Bildern gut zu funktionieren, nicht nur auf denen, auf denen es trainiert wurde. Ein häufiges Problem bei der Ausbildung dieser Modelle ist die Überanpassung, bei der ein Modell zu viel aus den Trainingsdaten lernt, einschließlich unnötiger Störungen, anstatt sinnvolle Muster zu erkennen.

In diesem Fall ist das Modell bei den Trainingsdaten gut, aber bei neuen Bildern hat es Probleme. Ein Modell zur Objekterkennung, das nur auf hochauflösenden, gut beleuchteten Bildern trainiert wurde, kann zum Beispiel versagen, wenn es unter realen Bedingungen mit verschwommenen oder schattigen Bildern konfrontiert wird. Die Überanpassung schränkt die Anpassungsfähigkeit eines Modells ein, was seine Verwendung in realen Anwendungen wie autonomes Fahren, medizinische Bildgebung und Sicherheitssysteme einschränkt.

In diesem Artikel erfahren wir, was Overfitting ist, warum es passiert und wie man es verhindern kann. Wir schauen uns auch an, wie Computer Vision Modelle wie Ultralytics YOLO11 helfen, Overfitting zu reduzieren und die Generalisierung zu verbessern.

Was ist Overfitting?

Eine Überanpassung liegt vor, wenn sich ein Modell Trainingsdaten merkt, anstatt Muster zu lernen, die auf neue Eingaben übertragbar sind. Das Modell konzentriert sich zu sehr auf die Trainingsdaten, so dass es mit neuen Bildern oder Situationen, die es noch nicht kennt, nicht zurechtkommt.

In der Computer Vision kann die Überanpassung verschiedene Aufgaben betreffen. Ein Klassifizierungsmodell, das nur auf hellen, klaren Bildern trainiert wurde, kann bei schlechten Lichtverhältnissen Probleme haben. Ein Modell zur Objekterkennung, das aus perfekten Bildern lernt, kann in überfüllten oder unübersichtlichen Szenen versagen. Ebenso kann ein Modell zur Segmentierung von Instanzen in kontrollierten Umgebungen gut funktionieren, aber Probleme mit Schatten oder sich überlappenden Objekten haben.

Dies wird in realen KI-Anwendungen zu einem Problem, da die Modelle in der Lage sein müssen, über kontrollierte Trainingsbedingungen hinaus zu verallgemeinern. Selbstfahrende Autos müssen zum Beispiel in der Lage sein, Fußgänger bei unterschiedlichen Lichtverhältnissen, Wetterbedingungen und Umgebungen zu erkennen. Ein Modell, das sich zu sehr an die Trainingsdaten anpasst, wird in solchen unvorhersehbaren Szenarien nicht zuverlässig funktionieren.

Wann und warum kommt es zu einer Überanpassung?

Eine Überanpassung ist in der Regel auf unausgewogene Datensätze, eine zu hohe Modellkomplexität und Übertraining zurückzuführen. Hier sind die Hauptursachen:

  • Begrenzte Trainingsdaten: Kleine Datensätze führen dazu, dass sich Modelle Muster einprägen, anstatt sie zu verallgemeinern. Ein Modell, das auf nur 50 Bildern von Vögeln trainiert wurde, hat möglicherweise Schwierigkeiten, Vogelarten außerhalb dieses Datensatzes zu erkennen.

  • Komplexe Modelle mit zu vielen Parametern: Tiefe Netzwerke mit zu vielen Schichten und Neuronen neigen dazu, sich feine Details zu merken, anstatt sich auf die wesentlichen Merkmale zu konzentrieren.

  • Mangel an Datenerweiterung: Ohne Transformationen wie Beschneiden, Spiegeln oder Drehen kann ein Modell nur von seinen exakten Trainingsbildern lernen.

  • Verlängertes Training: Wenn ein Modell die Trainingsdaten zu oft durchläuft, so genannte Epochen, merkt es sich Details, anstatt allgemeine Muster zu lernen, und ist dadurch weniger anpassungsfähig.

  • Inkonsistente oder verrauschte Beschriftungen: Falsch beschriftete Daten führen dazu, dass ein Modell die falschen Muster lernt. Dies ist bei manuell beschrifteten Datensätzen häufig der Fall.

Ein ausgewogener Ansatz in Bezug auf Modellkomplexität, Datenqualität und Trainingstechniken sorgt für eine bessere Generalisierung.

Überanpassung vs. Unteranpassung

Überanpassung und Unteranpassung sind zwei völlig gegensätzliche Probleme beim Deep Learning.

Abb. 1. Vergleich von Underfitting, optimalem Lernen und Overfitting bei Computer Vision Modellen.

Eine Überanpassung liegt vor, wenn ein Modell zu komplex ist und sich zu sehr auf die Trainingsdaten konzentriert. Anstatt allgemeine Muster zu lernen, merkt es sich kleine Details, sogar irrelevante wie Hintergrundgeräusche. Das führt dazu, dass das Modell bei den Trainingsdaten gut abschneidet, aber bei neuen Bildern Probleme hat. Das bedeutet, dass es nicht wirklich gelernt hat, Muster zu erkennen, die in verschiedenen Situationen gelten.

Underfitting liegt vor, wenn ein Modell zu einfach ist, sodass es wichtige Muster in den Daten übersieht. Das kann passieren, wenn das Modell zu wenige Schichten hat, nicht genug Trainingszeit zur Verfügung steht oder die Datenmenge begrenzt ist. Infolgedessen erkennt es wichtige Muster nicht und macht ungenaue Vorhersagen. Das führt zu einer schlechten Leistung sowohl bei den Trainings- als auch bei den Testdaten, weil das Modell nicht genug gelernt hat, um die Aufgabe richtig zu verstehen. 

Ein gut trainiertes Modell findet die Balance zwischen Komplexität und Generalisierung. Es sollte komplex genug sein, um relevante Muster zu lernen, aber nicht so komplex, dass es sich die Daten merkt, anstatt die zugrunde liegenden Zusammenhänge zu erkennen.

Wie man Überanpassung erkennt

Hier sind einige Anzeichen dafür, dass ein Modell überangepasst ist:

  • Wenn die Trainingsgenauigkeit deutlich höher ist als die Validierungsgenauigkeit, ist das Modell wahrscheinlich überangepasst.
  • Ein weiterer wichtiger Indikator ist eine wachsende Kluft zwischen Trainingsverlust und Validierungsverlust.
  • Das Modell ist bei falschen Antworten zu selbstbewusst und zeigt, dass es sich Details gemerkt hat, anstatt Muster zu verstehen.

Um sicherzustellen, dass ein Modell gut verallgemeinert werden kann, muss es an verschiedenen Datensätzen getestet werden, die reale Bedingungen widerspiegeln.

Wie man Overfitting in der Computer Vision verhindert

Eine Überanpassung ist nicht unvermeidlich und kann verhindert werden. Mit den richtigen Techniken können Computer-Vision-Modelle allgemeine Muster lernen, anstatt sich Trainingsdaten zu merken, was sie in realen Anwendungen zuverlässiger macht. 

Hier sind fünf wichtige Strategien zur Vermeidung von Overfitting in der Computer Vision.

Erhöhe die Datenvielfalt mit Erweiterungen und synthetischen Daten

Der beste Weg, um ein Modell mit neuen Daten zu verbessern, ist die Erweiterung des Datensatzes durch Datenerweiterung und synthetische Daten. Synthetische Daten werden nicht aus realen Bildern gesammelt, sondern vom Computer generiert. Sie helfen dabei, Lücken zu füllen, wenn es nicht genug echte Daten gibt.

Abb. 2. Combining real-world and synthetic data reduces overfitting and improves object detection accuracy.

Bei der Datenerweiterung werden vorhandene Bilder leicht verändert, indem sie gespiegelt, gedreht, beschnitten oder in der Helligkeit angepasst werden, so dass sich das Modell nicht nur Details einprägt, sondern lernt, Objekte in verschiedenen Situationen zu erkennen.

Synthetische Daten sind nützlich, wenn echte Bilder schwer zu bekommen sind. Selbstfahrende Autos können zum Beispiel auf computergenerierten Straßenszenen trainieren, um zu lernen, wie sie Objekte bei unterschiedlichen Wetter- und Lichtverhältnissen erkennen. Dadurch wird das Modell flexibler und zuverlässiger, ohne dass Tausende von realen Bildern benötigt werden.

Optimiere die Komplexität und Architektur des Modells

Ein tiefes neuronales Netzwerk, eine Art maschinelles Lernmodell mit vielen Schichten, die Daten verarbeiten, ist nicht immer besser als eine einzelne Schicht. Wenn ein Modell zu viele Schichten oder Parameter hat, merkt es sich die Trainingsdaten, anstatt breitere Muster zu erkennen. Eine Reduzierung der unnötigen Komplexität kann helfen, eine Überanpassung zu verhindern.

Ein Ansatz dafür ist das Pruning, bei dem überflüssige Neuronen und Verbindungen entfernt werden, um das Modell schlanker und effizienter zu machen. 

Eine weitere Möglichkeit ist die Vereinfachung der Architektur, indem die Anzahl der Schichten oder Neuronen reduziert wird. Vorgefertigte Modelle wie YOLO11 sind so konzipiert, dass sie sich mit weniger Parametern gut über verschiedene Aufgaben hinweg verallgemeinern lassen, was sie widerstandsfähiger gegen Überanpassung macht als das Training eines Deep Models von Grund auf.

Das richtige Gleichgewicht zwischen Modelltiefe und Effizienz hilft ihm, nützliche Muster zu lernen, ohne sich nur Trainingsdaten zu merken.

Regularisierungstechniken anwenden

Regularisierungstechniken verhindern, dass die Modelle zu sehr von bestimmten Merkmalen in den Trainingsdaten abhängig werden. Hier sind ein paar häufig verwendete Techniken:

  • Dropout schaltet zufällige Teile des Modells während des Trainings aus, damit es lernt, verschiedene Muster zu erkennen, anstatt sich zu sehr auf ein paar Merkmale zu verlassen.

  • Die Gewichtsabnahme (L2-Regularisierung) verhindert extreme Gewichtswerte und hält die Komplexität des Modells unter Kontrolle.

  • Die Batch-Normalisierung trägt zur Stabilisierung des Trainings bei, indem sie sicherstellt, dass das Modell weniger empfindlich auf Schwankungen im Datensatz reagiert.

Diese Techniken helfen dabei, die Flexibilität und Anpassungsfähigkeit eines Modells zu erhalten und das Risiko einer Überanpassung zu verringern, ohne die Genauigkeit zu beeinträchtigen.

Überwachung der Ausbildung mit Validierung und frühzeitigem Abbruch

Um eine Überanpassung zu vermeiden, ist es wichtig zu verfolgen, wie das Modell lernt und sicherzustellen, dass es gut auf neue Daten verallgemeinert werden kann. Hier sind ein paar Techniken, die dabei helfen:

  • Frühzeitiges Beenden: Beendet das Training automatisch, wenn sich das Modell nicht mehr verbessert, damit es nicht weiter unnötige Details lernt.

  • Kreuzvalidierung: Teilt die Daten in Teile auf und trainiert das Modell auf jedem Teil. So lernt es Muster, anstatt sich bestimmte Bilder einzuprägen.

Diese Techniken helfen dem Modell, ausgewogen zu bleiben, damit es genug lernt, um genau zu sein, ohne sich zu sehr auf die Trainingsdaten zu konzentrieren.

Vorgefertigte Modelle verwenden und Datensatzbeschriftung verbessern

Anstatt von Grund auf zu trainieren, kann die Verwendung von vortrainierten Modellen wie YOLO11 die Überanpassung reduzieren. YOLO11 wurde auf großen Datensätzen trainiert und kann daher unter verschiedenen Bedingungen gut verallgemeinert werden.

Abb. 3. Vortrainierte Computer Vision Modelle verbessern die Genauigkeit und verhindern eine Überanpassung.

Die Feinabstimmung eines vorab trainierten Modells hilft ihm, beim Lernen neuer Aufgaben sein bereits vorhandenes Wissen beizubehalten, damit es sich nicht nur die Trainingsdaten merkt.

Darüber hinaus ist es wichtig, die Qualität der Datenbeschriftung sicherzustellen. Falsch beschriftete oder unausgewogene Daten können die Modelle dazu verleiten, falsche Muster zu lernen. Das Bereinigen von Datensätzen, das Korrigieren falsch beschrifteter Bilder und das Ausbalancieren von Klassen verbessern die Genauigkeit und verringern das Risiko einer Überanpassung. Ein weiterer effektiver Ansatz ist das kontradiktorische Training, bei dem das Modell mit leicht veränderten oder anspruchsvolleren Beispielen konfrontiert wird, um seine Grenzen zu testen.

Die wichtigsten Erkenntnisse

Überanpassung ist ein häufiges Problem in der Computer Vision. Ein Modell kann in den Trainingsdaten gut funktionieren, aber bei realen Bildern Schwierigkeiten haben. Um dies zu vermeiden, helfen Techniken wie Datenerweiterung, Regularisierung und die Verwendung von vortrainierten Modellen wie YOLO11 , die Genauigkeit und Anpassungsfähigkeit zu verbessern.

Durch die Anwendung dieser Methoden können KI-Modelle zuverlässig bleiben und in verschiedenen Umgebungen gut funktionieren. Da Deep Learning immer besser wird, ist es für den Erfolg von KI in der realen Welt entscheidend, dass die Modelle richtig verallgemeinert werden.

Werde Teil unserer wachsenden Gemeinschaft! Erforsche unser GitHub-Repository, um mehr über KI zu erfahren. Bist du bereit, deine eigenen Computer Vision Projekte zu starten? Schau dir unsere Lizenzierungsoptionen an. Entdecke Vision AI im selbstfahrenden Auto und AI im Gesundheitswesen, indem du unsere Lösungsseiten besuchst!

Facebook-LogoTwitter-LogoLinkedIn-LogoKopier-Link-Symbol

Lies mehr in dieser Kategorie

Lass uns gemeinsam die Zukunft
der KI gestalten!

Beginne deine Reise in die Zukunft des maschinellen Lernens