Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Parameter-Effizientes Fine-Tuning (PEFT)

Entdecken Sie Parameter-Efficient Fine-Tuning (PEFT) zur Optimierung großer Modelle wie Ultralytics . Erfahren Sie, wie Sie Rechenkosten senken und SOTA-Ergebnisse auf GPUs erzielen können.

Parameter-Efficient Fine-Tuning (PEFT) ist eine ausgefeilte Optimierungsstrategie im maschinellen Lernen (ML), die die Anpassung großer, vortrainierter Modelle an bestimmte Aufgaben ermöglicht und gleichzeitig die Rechenkosten minimiert. Da moderne Grundlagenmodelle mittlerweile Milliarden von Parametern umfassen, sind traditionelle Trainingsmethoden, bei denen jedes Gewicht im Netzwerk aktualisiert wird, in Bezug auf Hardware und Energie unerschwinglich teuer geworden. PEFT begegnet dieser Herausforderung, indem es den Großteil der vortrainierten Modellgewichte einfriert und nur eine kleine Teilmenge von Parametern aktualisiert oder leichtgewichtige Adapter-Schichten hinzufügt. Dieser Ansatz senkt die Einstiegshürde und ermöglicht es Entwicklern, auf Verbraucher-GPUs ohne industrielle Rechenzentren modernste Ergebnisse zu erzielen.

Die Mechanismen der Effizienz

Das Kernprinzip von PEFT basiert auf Transferlernen, bei dem ein Modell Merkmalsdarstellungen nutzt, die aus riesigen öffentlichen Datensätzen wie ImageNet , um neue Probleme zu lösen. In einem Standard-Workflow kann die Anpassung eines Modells ein „vollständiges Fine-Tuning” erfordern, bei dem die Backpropagation jeden Parameter im neuronalen Netzwerk

PEFT-Techniken wie LoRA (Low-Rank Adaptation) verfolgen einen anderen Ansatz. Sie belassen das „Rückgrat“ des Modells unverändert – und bewahren damit dessen allgemeines Wissen – und fügen kleine, trainierbare Matrizen in bestimmte Schichten ein. Dadurch wird katastrophales Vergessen verhindert, ein Phänomen, bei dem ein Modell beim Erlernen neuer Informationen seine ursprünglichen Fähigkeiten verliert. Durch die Reduzierung der Anzahl trainierbarer Parameter um bis zu 99 % senkt PEFT den Speicherbedarf erheblich und ermöglicht es, mehrere aufgabenspezifische Adapter während der Echtzeit-Inferenz in ein einziges Basismodell ein- und auszutauschen .

Anwendungsfälle in der Praxis

PEFT ist besonders wertvoll in Branchen, in denen Edge-Computing und Datenschutz von größter Bedeutung sind.

  • KI in der Landwirtschaft: Agritech-Startups setzen häufig Modelle auf Drohnen mit begrenzter Akkulaufzeit und Rechenleistung ein. Mit PEFT können Ingenieure ein hocheffizientes Modell wie YOLO26 nehmen und es mithilfe eines kleinen benutzerdefinierten Datensatzes so optimieren, dass detect regionale Schädlinge wie den Herbst-Heerwurm detect . Durch das Einfrieren des Backbones kann das Training schnell auf einem Laptop durchgeführt werden, und das resultierende Modell bleibt leicht genug für die Verarbeitung an Bord.
  • KI im Gesundheitswesen: Bei der medizinischen Bildanalyse sind annotierte Daten oft rar und teuer in der Beschaffung. Krankenhäuser nutzen PEFT, um allgemeine Bildverarbeitungsmodelle anzupassen und Anomalien in MRT-Scans zu erkennen. Da die Basisparameter feststehen, ist das Modell weniger anfällig für Überanpassung bei kleinen Datensätzen, was eine robuste Diagnoseleistung gewährleistet und gleichzeitig den Datenschutz der Patientendaten gewährleistet.

Implementierung von Frozen Layers mit Ultralytics

Im Ultralytics wird die Parametereffizienz häufig durch das „Einfrieren“ der ersten Schichten eines Netzwerks erreicht . Dadurch wird sichergestellt, dass die robusten Merkmalsextraktoren unverändert bleiben, während sich nur der Kopf oder die späteren Schichten an neue Klassen anpassen. Dies ist eine praktische Umsetzung der PEFT-Prinzipien für die Objekterkennung.

Das folgende Beispiel zeigt, wie ein YOLO26 -Modell trainiert wird, während die ersten 10 Schichten des Backbones eingefroren werden, um Rechenressourcen zu sparen:

from ultralytics import YOLO

# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")

# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)

Für Teams, die diesen Prozess skalieren möchten, bietet Ultralytics eine einheitliche Schnittstelle zur Verwaltung von Datensätzen, zur Automatisierung von Annotationen und zur Überwachung dieser effizienten Trainingsläufe aus der Cloud.

Unterscheidung von PEFT und verwandten Konzepten

Um die richtige Strategie zur Modellanpassung auszuwählen, ist es hilfreich, PEFT von ähnlichen Begriffen zu unterscheiden:

  • Feinabstimmung: Dieser Prozess, der oft als „vollständige Feinabstimmung” bezeichnet wird, aktualisiert alle Parameter im Modell. Er bietet zwar maximale Plastizität, ist jedoch rechenintensiv und erfordert das Speichern einer vollständigen Kopie des Modells für jede Aufgabe. PEFT ist eine Unterkategorie der Feinabstimmung, die sich auf Effizienz konzentriert.
  • Prompt Engineering: Hierbei werden Texteingaben erstellt, um die Ausgabe eines Modells zu steuern, ohne die internen Gewichte zu verändern. PEFT hingegen verändert mathematisch eine Teilmenge von Gewichten oder Adaptern, um die Art und Weise, wie das Modell Daten verarbeitet, dauerhaft zu verändern.
  • Wissensdestillation: Bei dieser Technik wird ein kleines Lernmodell trainiert, um ein großes Lehrmodell nachzuahmen. Das Ergebnis ist zwar ein effizientes Modell, jedoch handelt es sich hierbei um eine Komprimierungsmethode, während PEFT eine Anpassungsmethode ist, mit der einem bestehenden Modell neue Fähigkeiten beigebracht werden.

Durch die Demokratisierung des Zugangs zu leistungsstarker KI ermöglicht PEFT Entwicklern die Erstellung spezialisierter Tools für autonome Fahrzeuge und intelligente Fertigung, ohne dass dafür eine Supercomputer-Infrastruktur erforderlich ist.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten