Glossar

Parametereffiziente Feinabstimmung (PEFT)

Entdecke das Parameter-Efficient Fine-Tuning (PEFT): passe große KI-Modelle mit minimalen Ressourcen effizient an. Optimiere Aufgaben in NLP, Vision und mehr!

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Parametereffizientes Fine-Tuning (PEFT) ist ein Ansatz des maschinellen Lernens, der darauf abzielt, große, vorab trainierte Modelle mit minimalem Rechenaufwand an neue Aufgaben anzupassen. Durch die Feinabstimmung nur einer kleinen Teilmenge von Parametern machen PEFT-Techniken den Feinabstimmungsprozess effizienter, reduzieren den Ressourcenbedarf und erhalten das allgemeine Wissen, das im vortrainierten Modell kodiert ist.

Die Bedeutung von PEFT

Bei der herkömmlichen Feinabstimmung müssen alle Parameter eines Modells aktualisiert werden, was rechen- und speicherintensiv sein kann, insbesondere bei großen Modellen wie transformatorbasierten Architekturen. PEFT löst dieses Problem, indem es nur einen Bruchteil der Parameter verändert, während der Großteil des trainierten Modells unverändert bleibt. Dieser Ansatz ist besonders vorteilhaft, wenn die Rechenressourcen begrenzt sind oder wenn mehrere Aufgaben zu bewältigen sind, die Anpassungen erfordern, ohne dass das gesamte Modell jedes Mal neu trainiert werden muss.

PEFT-Techniken entsprechen der wachsenden Nachfrage nach ressourceneffizienten Lösungen in der KI und ermöglichen die praktische Anwendung großer Modelle in verschiedenen Branchen wie dem Gesundheitswesen, der Landwirtschaft und dem Einzelhandel.

Schlüsseltechniken in PEFT

Es wurden mehrere Ansätze für eine parameterschonende Feinabstimmung entwickelt:

  • Low-Rank Adaptation (LoRA): LoRA speist aufgabenspezifische Low-Rank-Updates in das Modell ein und optimiert nur diese zusätzlichen Parameter, um sich an neue Aufgaben anzupassen.
  • Adapterschichten: Das sind kleine neuronale Netzmodule, die in die Architektur des Modells eingefügt werden, normalerweise zwischen den Schichten, um aufgabenspezifische Anpassungen zu lernen.
  • Prompt-Tuning: Bei dieser Methode werden nur die Eingabeaufforderungen an das Modell angepasst, während die Modellparameter unverändert bleiben. Erfahre mehr über Prompt-Tuning.
  • Präfix-Abstimmung: Ähnlich wie beim Prompt-Tuning wird beim Prefix-Tuning eine Reihe von aufgabenspezifischen Parametern optimiert, die den Eingabedaten vorangestellt werden.

Jede Methode zielt darauf ab, die Ausbildungszeit und den Ressourcenverbrauch zu reduzieren und gleichzeitig eine gute Leistung bei den nachgelagerten Aufgaben zu erzielen.

Anwendungen von PEFT

PEFT findet in vielen Bereichen der KI und des maschinellen Lernens Anwendung, vor allem dort, wo Ressourcenbeschränkungen oder Aufgabenvielfalt eine wichtige Rolle spielen.

Beispiel 1: Natürliche Sprachverarbeitung (NLP)

In der NLP werden PEFT-Techniken häufig eingesetzt, um große Sprachmodelle wie GPT-3 oder GPT-4 an bestimmte Aufgaben wie Sentimentanalyse, Zusammenfassung oder domänenspezifische Fragenbeantwortung anzupassen. LoRA kann zum Beispiel zur Feinabstimmung von GPT-3 für die medizinische Textanalyse eingesetzt werden, um genaue Vorhersagen zu ermöglichen und gleichzeitig den Rechenaufwand zu minimieren.

Beispiel 2: Vision AI

In der Computer Vision wird PEFT zur Feinabstimmung von trainierten Modellen wie Ultralytics YOLO für bestimmte Aufgaben, wie die Erkennung seltener Objekte in speziellen Datensätzen. Durch die Feinabstimmung nur eines kleinen Teils der Modellgewichte können Unternehmen schnell maßgeschneiderte Lösungen für Aufgaben wie die Überwachung von Wildtieren oder die Qualitätskontrolle in der Industrie einsetzen, ohne dass ein umfangreiches Neutraining erforderlich ist.

Vorteile von PEFT

  1. Ressourceneffizienz: Reduziert den Rechen- und Speicherbedarf und eignet sich daher für den Einsatz auf Endgeräten oder in Umgebungen mit begrenzten Ressourcen.
  2. Aufgabenflexibilität: Ermöglicht eine schnelle Anpassung an mehrere nachgelagerte Aufgaben, ohne das gesamte Modell neu zu trainieren, was besonders für Branchen wie das Gesundheitswesen und die Fertigung nützlich ist.
  3. Kosteneffizienz: Senkt die Kosten für die Feinabstimmung großer Modelle, indem sie sich auf eine kleine Untergruppe von Parametern konzentriert.
  4. Beibehaltung des allgemeinen Wissens: Die allgemeinen Fähigkeiten des trainierten Modells bleiben erhalten, während aufgabenspezifisches Wissen hinzugefügt wird.

Unterschiede zum traditionellen Fine-Tuning

Bei der traditionellen Feinabstimmung wird das gesamte Modell aktualisiert, was rechenintensiv und anfällig für eine Überanpassung sein kann, insbesondere bei kleinen Datensätzen. PEFT hingegen konzentriert sich auf die Optimierung einer minimalen Anzahl von Parametern und erzielt vergleichbare Ergebnisse bei deutlich geringerem Rechenaufwand.

PEFT unterscheidet sich auch vom Transfer-Lernen, bei dem ein zuvor trainiertes Modell an eine neue Aufgabe angepasst wird, indem einige oder alle Schichten neu trainiert werden. Während beim Transfer Learning das Modell vollständig neu trainiert werden kann, ist PEFT explizit darauf ausgelegt, die Aktualisierung der Parameter zu minimieren.

Auswirkungen in der realen Welt

Die Einführung von PEFT hat die Verbreitung von KI-Lösungen in ressourcenbeschränkten Umgebungen ermöglicht. In der Landwirtschaft kann PEFT zum Beispiel Bildverarbeitungsmodelle feinabstimmen, um Pflanzenkrankheiten präzise zu erkennen und dabei mit Geräten mit geringem Stromverbrauch zu arbeiten. Auch im Gesundheitswesen erleichtert PEFT die Anpassung von Modellen für Aufgaben wie die Erkennung von Tumoren mit Hilfe spezieller Datensätze, wie in den Lösungen vonUltralytics zu sehen ist.

PEFT ist auch in Tools wie Ultralytics HUB integriert, was das Training und den Einsatz von benutzerdefinierten Modellen vereinfacht und sicherstellt, dass die Nutzer/innen die vortrainierten Modelle effizient an ihre individuellen Bedürfnisse anpassen können.

Schlussfolgerung

Parameter-Efficient Fine-Tuning (PEFT) ist ein wichtiger Schritt, um KI zugänglicher und anpassungsfähiger zu machen. PEFT ermöglicht die effiziente Anpassung großer Modelle an neue Aufgaben und versetzt die Industrie in die Lage, das volle Potenzial der KI zu nutzen und gleichzeitig Kosten und Rechenaufwand zu senken. Mit Anwendungen in den Bereichen NLP, Computer Vision und darüber hinaus spielt PEFT auch weiterhin eine zentrale Rolle bei der Weiterentwicklung von KI-Technologien.

Alles lesen