Glossar

Feinabstimmung

Verfeinere maschinelle Lernmodelle wie Ultralytics YOLO für bestimmte Aufgaben. Lerne hier Methoden, Anwendungen und Best Practices kennen!

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Feintuning ist eine beliebte Technik im maschinellen Lernen (ML), bei der ein Modell, das bereits auf einem großen Datensatz trainiert wurde (ein vorab trainiertes Modell), auf einem kleineren, spezifischen Datensatz, der für eine bestimmte Aufgabe relevant ist, weiter trainiert wird. Dieser Ansatz nutzt das allgemeine Wissen, das das Modell beim ersten Training erlernt hat, und passt es so an, dass es in einem spezielleren Bereich hervorragende Leistungen erbringen kann, ohne dass ein Modell von Grund auf neu trainiert werden muss, was viel Zeit und Rechenressourcen spart. Dies ist eine gängige Praxis in Bereichen wie Computer Vision (CV) und Natural Language Processing (NLP).

Wie die Feinabstimmung funktioniert

Der Prozess beginnt in der Regel mit der Auswahl eines vortrainierten Modells, z. B. eines Ultralytics YOLO Modell, das auf einem breiten Datensatz wie COCO trainiert wurde. Diese Modelle haben bereits gelernt, allgemeine Merkmale aus ihren ursprünglichen Trainingsdaten zu erkennen. Bei der Feinabstimmung werden die Modellgewichte auf der Grundlage des neuen, kleineren Datensatzes angepasst. Oft werden die ersten Schichten des Netzes (die allgemeine Merkmale lernen) "eingefroren" (ihre Gewichte werden nicht aktualisiert), während die späteren, aufgabenspezifischen Schichten neu trainiert werden. Bei dieser Umschulung wird in der Regel eine niedrigere Lernrate als beim ursprünglichen Training verwendet, um kleinere Anpassungen an den Gewichten vorzunehmen, damit das zuvor gelernte Wissen erhalten bleibt, während es an die Feinheiten der neuen Aufgabe angepasst wird.

Feinabstimmung vs. verwandte Konzepte

Es ist wichtig, das Fine-Tuning von ähnlichen ML-Konzepten zu unterscheiden:

  • Transferlernen: Die Feinabstimmung ist eine spezielle Methode innerhalb der umfassenderen Kategorie des Transferlernens. Transferlernen umfasst jede Technik, bei der ein für eine Aufgabe entwickeltes Modell als Ausgangspunkt für ein Modell für eine zweite Aufgabe wiederverwendet wird. Während beim Fine-Tuning die Gewichte des vortrainierten Modells angepasst werden, wird bei anderen Transfer-Learning-Ansätzen das vortrainierte Modell lediglich als fester Merkmalsextraktor verwendet.
  • Training von Grund auf: Dabei werden die Gewichte eines Modells nach dem Zufallsprinzip initialisiert und das Modell ausschließlich auf dem Zieldatensatz trainiert. Im Vergleich zum Feintuning sind dafür deutlich mehr Daten und Rechenleistung erforderlich. Außerdem ist die Leistung bei kleineren Datensätzen oft nicht so gut, da die allgemeine Wissensbasis eines trainierten Modells fehlt. Tipps zum Modelltraining findest du in unserer Dokumentation.
  • Abstimmung der Hyperparameter: Bei diesem Prozess geht es darum, die optimalen Konfigurationseinstellungen (Hyperparameter wie Lernrate, Stapelgröße, Wahl des Optimierers) zu finden , bevor der Trainingsprozess beginnt. Die Feinabstimmung hingegen ist Teil des eigentlichen Trainingsprozesses, bei dem die internen Parameter (Gewichte) des Modells auf der Grundlage neuer Daten angepasst werden. Tools wie der Ultralytics Tuner automatisieren die Optimierung der Hyperparameter.

Warum Feinabstimmung?

Die Feinabstimmung bietet mehrere Vorteile:

  • Reduzierte Trainingszeit: Nutzt vorhandenes Wissen und benötigt weniger Trainingsepochen.
  • Geringere Datenanforderungen: Effektiv auch bei kleineren, aufgabenspezifischen Datensätzen, da das Modell nicht alles von Grund auf neu lernt.
  • Verbesserte Leistung: Erzielt oft eine höhere Genauigkeit bei speziellen Aufgaben im Vergleich zu Modellen, die von Grund auf mit begrenzten Daten trainiert wurden.
  • Zugang zu hochmodernen Architekturen: Ermöglicht es den Nutzern, leistungsstarke, komplexe Modelle wie Transformers oder fortgeschrittene CNNs zu verwenden, ohne dass die massiven Ressourcen für das anfängliche Pre-Training benötigt werden.

Anwendungen in der realen Welt

Die Feinabstimmung ist in vielen Bereichen weit verbreitet:

  1. Spezialisierte Objekterkennung: EinYOLO Ultralytics , das für die allgemeine Objekterkennung trainiert wurde, kann mit einem benutzerdefinierten Datensatz spezifischer Industrieteile feinabgestimmt werden, um ein leistungsfähiges Fehlererkennungssystem für die KI in der Fertigung zu schaffen. Genauso kann es für die medizinische Bildanalyse angepasst werden, um bestimmte Zustände wie Hirntumore zu erkennen. Ultralytics HUB bietet eine Plattform zur Verwaltung von Datensätzen und zur Rationalisierung dieses individuellen Trainingsprozesses.
  2. Benutzerdefinierte Sprachaufgaben: Ein großes Sprachmodell wie GPT-3, das von OpenAI auf verschiedenen Internettexten vortrainiert wurde, kann auf einem Datensatz mit juristischen Dokumenten feinabgestimmt werden, um seine Leistung bei der Zusammenfassung von juristischen Texten zu verbessern, oder auf Kundenservice-Transkripten für spezielle Chatbot-Antworten. Ein weiteres Beispiel ist die Feinabstimmung von BERT-Modellen für bestimmte Aufgaben der Stimmungsanalyse von Produktrezensionen oder Social-Media-Posts, wie in Ressourcen wie dem Google AI Blog beschrieben.

Feinabstimmung der Ultralytics YOLO

Ultralytics bietet robuste Unterstützung für die Feinabstimmung seiner YOLO . Nutzer/innen können ganz einfach vortrainierte Gewichte laden (z. B. von Modellen, die auf ImageNet oder COCO trainiert wurden) und das Training auf ihren eigenen Datensätzen für Aufgaben wie Erkennung, Segmentierung oder Klassifizierung fortsetzen. Die Ultralytics bietet detaillierte Anleitungen zum Trainingsprozess und ermöglicht es den Nutzern, moderne Modelle wie YOLO11 für ihre spezifischen Computer Vision Herausforderungen anzupassen. Diese Anpassungsfähigkeit ist der Schlüssel zum Erreichen einer optimalen Leistung in verschiedenen Anwendungen, von KI in der Landwirtschaft bis hin zur Robotik. Weitere Informationen zu Transfer-Learning-Techniken findest du auf Bildungsplattformen wie Coursera.

Alles lesen