Entdecken Sie Parameter-Efficient Fine-Tuning (PEFT) zur Optimierung großer Modelle wie Ultralytics . Erfahren Sie, wie Sie Rechenkosten senken und SOTA-Ergebnisse auf GPUs erzielen können.
Parameter-Efficient Fine-Tuning (PEFT) ist eine ausgefeilte Optimierungsstrategie im maschinellen Lernen (ML), die die Anpassung großer, vortrainierter Modelle an bestimmte Aufgaben ermöglicht und gleichzeitig die Rechenkosten minimiert. Da moderne Grundlagenmodelle mittlerweile Milliarden von Parametern umfassen, sind traditionelle Trainingsmethoden, bei denen jedes Gewicht im Netzwerk aktualisiert wird, in Bezug auf Hardware und Energie unerschwinglich teuer geworden. PEFT begegnet dieser Herausforderung, indem es den Großteil der vortrainierten Modellgewichte einfriert und nur eine kleine Teilmenge von Parametern aktualisiert oder leichtgewichtige Adapter-Schichten hinzufügt. Dieser Ansatz senkt die Einstiegshürde und ermöglicht es Entwicklern, auf Verbraucher-GPUs ohne industrielle Rechenzentren modernste Ergebnisse zu erzielen.
Das Kernprinzip von PEFT basiert auf Transferlernen, bei dem ein Modell Merkmalsdarstellungen nutzt, die aus riesigen öffentlichen Datensätzen wie ImageNet , um neue Probleme zu lösen. In einem Standard-Workflow kann die Anpassung eines Modells ein „vollständiges Fine-Tuning” erfordern, bei dem die Backpropagation jeden Parameter im neuronalen Netzwerk
PEFT-Techniken wie LoRA (Low-Rank Adaptation) verfolgen einen anderen Ansatz. Sie belassen das „Rückgrat“ des Modells unverändert – und bewahren damit dessen allgemeines Wissen – und fügen kleine, trainierbare Matrizen in bestimmte Schichten ein. Dadurch wird katastrophales Vergessen verhindert, ein Phänomen, bei dem ein Modell beim Erlernen neuer Informationen seine ursprünglichen Fähigkeiten verliert. Durch die Reduzierung der Anzahl trainierbarer Parameter um bis zu 99 % senkt PEFT den Speicherbedarf erheblich und ermöglicht es, mehrere aufgabenspezifische Adapter während der Echtzeit-Inferenz in ein einziges Basismodell ein- und auszutauschen .
PEFT ist besonders wertvoll in Branchen, in denen Edge-Computing und Datenschutz von größter Bedeutung sind.
Im Ultralytics wird die Parametereffizienz häufig durch das „Einfrieren“ der ersten Schichten eines Netzwerks erreicht . Dadurch wird sichergestellt, dass die robusten Merkmalsextraktoren unverändert bleiben, während sich nur der Kopf oder die späteren Schichten an neue Klassen anpassen. Dies ist eine praktische Umsetzung der PEFT-Prinzipien für die Objekterkennung.
Das folgende Beispiel zeigt, wie ein YOLO26 -Modell trainiert wird, während die ersten 10 Schichten des Backbones eingefroren werden, um Rechenressourcen zu sparen:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
Für Teams, die diesen Prozess skalieren möchten, bietet Ultralytics eine einheitliche Schnittstelle zur Verwaltung von Datensätzen, zur Automatisierung von Annotationen und zur Überwachung dieser effizienten Trainingsläufe aus der Cloud.
Um die richtige Strategie zur Modellanpassung auszuwählen, ist es hilfreich, PEFT von ähnlichen Begriffen zu unterscheiden:
Durch die Demokratisierung des Zugangs zu leistungsstarker KI ermöglicht PEFT Entwicklern die Erstellung spezialisierter Tools für autonome Fahrzeuge und intelligente Fertigung, ohne dass dafür eine Supercomputer-Infrastruktur erforderlich ist.