Glossar

Feinabstimmung

Verfeinere maschinelle Lernmodelle wie Ultralytics YOLO für bestimmte Aufgaben. Lerne hier Methoden, Anwendungen und Best Practices kennen!

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Feintuning ist eine beliebte Technik im maschinellen Lernen (ML), bei der ein Modell, das bereits auf einem großen Datensatz trainiert wurde (ein vorab trainiertes Modell), auf einem kleineren, spezifischen Datensatz, der für eine bestimmte Aufgabe relevant ist, weiter trainiert wird. Dieser Ansatz nutzt das allgemeine Wissen, das das Modell beim ersten Training erlernt hat, und passt es so an, dass es in einem spezielleren Bereich hervorragende Leistungen erbringt, ohne dass ein Modell von Grund auf neu trainiert werden muss. Das spart viel Zeit und Rechenressourcen und ist daher in Bereichen wie Computer Vision (CV) und Natural Language Processing (NLP) weit verbreitet. Frameworks wie PyTorch und TensorFlow bieten die notwendigen Werkzeuge für die Umsetzung der Feinabstimmung.

Wie die Feinabstimmung funktioniert

Der Prozess beginnt in der Regel mit der Auswahl eines vortrainierten Modells, z. B. eines Ultralytics YOLO Modell, das auf einem breiten Datensatz wie COCO oder ImageNet trainiert wurde. Diese Modelle, oft Convolutional Neural Networks (CNNs) für die Bildverarbeitung oder Transformers für NLP, haben bereits gelernt, allgemeine Merkmale aus ihren ursprünglichen Trainingsdaten zu erkennen. Bei der Feinabstimmung werden die Modellgewichte - Parameter,die während des Trainings gelernt wurden - auf der Grundlage des neuen, kleineren Datensatzes angepasst. Oft werden die ersten Schichten des Netzes (die allgemeine Merkmale wie Kanten oder Texturen lernen) "eingefroren" (ihre Gewichte werden nicht aktualisiert), während die späteren, aufgabenspezifischen Schichten neu trainiert werden. Bei dieser Umschulung wird in der Regel eine niedrigere Lernrate als beim ursprünglichen Training verwendet, um kleinere Anpassungen an den Gewichten vorzunehmen, damit das zuvor gelernte Wissen erhalten bleibt, während es an die Feinheiten der neuen Aufgabe angepasst wird. Weitere Details zu den Mechanismen findest du in Ressourcen wie dem fast.ai-Kurs.

Warum Feinabstimmung?

Die Feinabstimmung bietet mehrere entscheidende Vorteile:

  • Geringere Trainingszeit: Wenn du mit einem vortrainierten Modell beginnst, verkürzt sich der Zeitaufwand im Vergleich zu einem Training von Grund auf, da das Modell bereits die grundlegenden Muster versteht.
  • Geringere Datenanforderungen: Die Feinabstimmung kann oft auch mit begrenzten aufgabenspezifischen Daten gute Ergebnisse erzielen, da sie auf dem umfangreichen Wissen aus dem großen Ausgangsdatensatz aufbaut. Plattformen wie Kaggle veranstalten oft Wettbewerbe, bei denen das Feintuning eine Schlüsselstrategie ist.
  • Verbesserte Leistung: Durch die Nutzung von Merkmalen, die aus großen Datensätzen gelernt wurden, kann die Feinabstimmung zu höherer Genauigkeit und besserer Generalisierung bei der Zielaufgabe führen, insbesondere wenn der Zieldatensatz klein ist.
  • Zugänglichkeit: Es macht hochmoderne Modelle für Praktiker/innen zugänglich, die nicht über die massiven Rechenressourcen verfügen, die für das anfängliche Vortraining erforderlich sind. Hugging Face bietet einen riesigen Fundus an vortrainierten Modellen, die für die Feinabstimmung bereitstehen.

Erforsche weitere Tipps zur Optimierung der Modellschulung.

Feinabstimmung vs. verwandte Konzepte

Es ist wichtig, das Fine-Tuning von ähnlichen ML-Konzepten zu unterscheiden:

  • Transferlernen: Das ist ein weit gefasstes Konzept, bei dem das Wissen aus einer Aufgabe auf eine andere, aber verwandte Aufgabe übertragen wird. Die Feinabstimmung ist eine spezielle Methode des Transferlernens, bei der die Gewichte eines bereits trainierten Modells anhand der Daten der neuen Aufgabe weiter trainiert (angepasst) werden. Bei anderen Transfer-Learning-Methoden wird das Modell nur zur Merkmalsextraktion verwendet. Erfahre mehr in Ressourcen wie Andrew Ngs Kurs zum maschinellen Lernen.
  • Merkmalsextraktion: Bei diesem Ansatz wird das vortrainierte Modell (oft ohne die letzten Schichten) als fester Feature Extractor verwendet. Die Ergebnisse (Merkmale) werden dann in ein neues, in der Regel einfacheres Modell (wie ein SVM oder ein kleines neuronales Netz) eingespeist, das auf dem neuen Datensatz von Grund auf neu trainiert wird. Anders als beim Feintuning werden die Gewichte des vorab trainierten Hauptmodells normalerweise nicht aktualisiert.
  • Hyperparameter-Abstimmung: Hier geht es darum, den optimalen Satz an Hyperparametern (z. B. Lernrate, Stapelgröße, Anzahl der Epochen, Auswahl der Netzwerkarchitektur) zu finden , bevor der Trainings- oder Feinabstimmungsprozess beginnt. Sie optimiert die Konfiguration des Lernprozesses, während die Feinabstimmung die Modellgewichte auf der Grundlage der Daten optimiert. Tools wie der Ultralytics Tuner automatisieren die Suche nach Hyperparametern.

Anwendungen in der realen Welt

Die Feinabstimmung ist in vielen Bereichen weit verbreitet:

  • Medizinische Bildanalyse: Ein auf ImageNet trainiertes Bildverarbeitungsmodell kann auf einem kleineren Datensatz von Röntgenbildern oder CT-Scans verfeinert werden, um bestimmte Krankheiten wie Lungenentzündung oder Gehirntumore zu erkennen. Dabei wird die erlernte Fähigkeit des Modells, Formen und Texturen zu erkennen, für die medizinische Diagnose genutzt. Die Forschung in diesem Bereich wird oft auf Plattformen wie arXiv veröffentlicht.
  • Spezialisierte Objektdetektion: Ein allgemeiner Objektdetektor wie YOLO, der mit COCO trainiert wurde, kann so angepasst werden, dass er bestimmte Objekte in Nischenumgebungen erkennt, z. B. bestimmte Arten von KI-Fehlern bei der Qualitätskontrolle in der Produktion oder bestimmte Tierarten für den Tierschutz.
  • Benutzerdefinierte Chatbots und Textanalyse: Große Sprachmodelle wie BERT (erklärt im Google AI Blog) oder GPT-3 von OpenAI können auf unternehmensspezifische Dokumente oder Kundendienstprotokolle abgestimmt werden, um spezialisierte Frage-Antwort-Systeme zu erstellen oder hochpräzise Stimmungsanalysen für bestimmte Branchen durchzuführen. Die Stanford NLP Group leistet einen wichtigen Beitrag zur NLP-Forschung.

Erforsche weitere Anwendungen innerhalb der Computer Vision Community.

Feinabstimmung der Ultralytics YOLO

Ultralytics bietet robuste Unterstützung für die Feinabstimmung seiner YOLO . Die Nutzer können ganz einfach vortrainierte Gewichte laden (z. B. von Modellen, die auf COCO trainiert wurden) und das Training auf ihrem eigenen Datensatz für Aufgaben wie Erkennung, Segmentierung oder Klassifizierung fortsetzen. Die Ultralytics Dokumentation bietet detaillierte Anleitungen zum Trainingsprozess, mit denen die Nutzer/innen modernste Modelle wie YOLO11 für ihre speziellen Computer Vision Aufgaben anzupassen. Plattformen wie Ultralytics HUB rationalisieren den individuellen Trainingsprozess weiter. Diese Anpassungsfähigkeit ist der Schlüssel zum Erreichen einer optimalen Leistung in verschiedenen Anwendungen, von KI in der Landwirtschaft bis hin zur Robotik. Weitere Informationen zu Transfer-Learning-Techniken findest du auf Bildungsplattformen wie der Deep Learning-Spezialisierung von Coursera und auf Websites wie Papers with Code oder Distill.pub, wo du Einblicke in die Forschung erhältst.

Alles lesen