Glossar

Parametereffiziente Feinabstimmung (PEFT)

Entdecke das Parameter-effiziente Fine-Tuning (PEFT) für die Anpassung großer KI-Modelle mit minimalen Ressourcen. Spare Kosten, verhindere Überanpassung und optimiere den Einsatz!

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Parametereffizientes Fine-Tuning (PEFT) ist eine Reihe von Techniken des maschinellen Lernens, die darauf abzielen, vortrainierte Modelle effizient an bestimmte nachgelagerte Aufgaben anzupassen und dabei nur eine kleine Anzahl von Modellparametern fein abzustimmen. Dieser Ansatz ist besonders wichtig in der Ära der großen Sprachmodelle (LLMs) und anderer großer KI-Modelle, bei denen eine vollständige Feinabstimmung rechenintensiv und ressourcenaufwändig sein kann. PEFT-Methoden senken die Rechen- und Speicherkosten erheblich und machen es möglich, diese massiven Modelle für eine breitere Palette von Anwendungen anzupassen und sie in ressourcenbeschränkten Umgebungen einzusetzen.

Relevanz und Anwendungen

Die Bedeutung von Parameter-Efficient Fine-Tuning ergibt sich aus seiner Fähigkeit, den Zugang zu leistungsstarken, vortrainierten Modellen zu demokratisieren. Anstatt ein großes Modell von Grund auf zu trainieren oder alle Parameter für jede neue Aufgabe neu einzustellen, können Entwickler und Forscher mit PEFT eine vergleichbare Leistung erzielen, indem sie nur einen Bruchteil der ursprünglichen Parameter anpassen. Diese Effizienz hat mehrere entscheidende Vorteile und Anwendungen:

  • Geringere Rechenkosten: Die herkömmliche Feinabstimmung großer Modelle erfordert erhebliche Rechenressourcen und Zeit. PEFT-Techniken senken diese Anforderungen drastisch, ermöglichen schnellere Experimente und Einsätze und machen KI auch für Einzelpersonen und Organisationen mit begrenzten Ressourcen zugänglich. Dies ist besonders vorteilhaft, wenn Plattformen wie Ultralytics HUB Cloud Training genutzt werden, wo effizientes Training direkt zu Kosteneinsparungen und schnelleren Iterationszyklen führt.
  • Geringerer Speicherbedarf: Die Feinabstimmung aller Parameter eines großen Modells führt zu mehreren Kopien in voller Größe für jede Aufgabe. PEFT-Methoden, die nur eine kleine Teilmenge der Parameter ändern, führen zu deutlich kleineren, fein abgestimmten Modellen. Das ist entscheidend für den Einsatz von Modellen auf Endgeräten oder in Szenarien, in denen der Speicherplatz begrenzt ist.
  • Verhinderung von Overfitting: Bei der Feinabstimmung großer Modelle auf kleinen Datensätzen besteht die Gefahr der Überanpassung, bei der das Modell lernt, auf den Trainingsdaten gut abzuschneiden, aber auf neuen, ungesehenen Daten schlecht verallgemeinert. PEFT-Methoden können als eine Form der Regularisierung fungieren, da sie die Anpassung des Modells einschränken, was zu einer besseren Generalisierung führen kann.

Die Anwendungen von PEFT in der Praxis sind vielfältig und wachsen schnell. In der natürlichen Sprachverarbeitung (Natural Language Processing, NLP) wird PEFT beispielsweise eingesetzt, um grundlegende Modelle wie GPT-3 oder GPT-4 für bestimmte Aufgaben wie Sentimentanalyse, Textzusammenfassung oder Fragenbeantwortung anzupassen. In der Computer Vision kann PEFT auf vortrainierte Bildmodelle angewandt werden, um sie für Aufgaben wie die medizinische Bildanalyse oder die Objekterkennung in bestimmten Bereichen zu spezialisieren, z. B. für die Erkennung von Defekten in der Fertigung oder die Identifizierung verschiedener Arten in der Tierwelt.

Schlüsselkonzepte

PEFT baut auf den Prinzipien des Transferlernens und der Feinabstimmung auf. Beim Transferlernen wird das Wissen, das bei der Lösung eines Problems gewonnen wurde, auf ein anderes, verwandtes Problem übertragen. Unter Feinabstimmung versteht man in diesem Zusammenhang den Prozess, ein bereits trainiertes Modell auf einem neuen, aufgabenspezifischen Datensatz weiter zu trainieren.

Die herkömmliche Feinabstimmung erfordert jedoch oft die Aktualisierung aller oder eines großen Teils der Parameter des trainierten Modells. PEFT zeichnet sich durch Techniken aus, die nur einen kleinen Teil dieser Parameter verändern. Zu den gängigen PEFT-Techniken gehören:

  • Adapter-Module: Das Hinzufügen kleiner, neuer Schichten (Adapter) zu dem bereits trainierten Modell und das Trainieren nur dieser Adapterschichten, während die ursprünglichen Modellgewichte eingefroren bleiben.
  • Präfix-Tuning: Hinzufügen von trainierbaren Präfixen zur Eingabe des Modells, die das Verhalten des Modells für die neue Aufgabe steuern.
  • Low-Rank Adaptation (LoRA): Zerlegung von Gewichtsmatrizen in Matrizen mit niedrigem Rang und Training nur dieser kleineren Matrizen mit niedrigem Rang.

Diese Methoden stehen im Gegensatz zur vollständigen Feinanpassung, bei der alle Modellparameter aktualisiert werden, und zum Modell Pruning, bei dem die Modellgröße durch das Entfernen weniger wichtiger Verbindungen reduziert wird. PEFT konzentriert sich eher auf eine effiziente Anpassung als auf eine Verkleinerung oder ein komplettes Neutraining.

Zusammenfassend lässt sich sagen, dass Parameter-Efficient Fine-Tuning ein entscheidender Fortschritt ist, um große KI-Modelle praktischer und zugänglicher zu machen. Durch die deutliche Reduzierung des Rechen- und Speicheraufwands bei gleichbleibend hoher Leistung ermöglicht PEFT einer breiteren Community, die Leistungsfähigkeit moderner KI für vielfältige und spezialisierte Anwendungen zu nutzen, darunter auch solche, die mit Modellen wie Ultralytics YOLO11.

Alles lesen