Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Fine-tuning efficiente in termini di parametri (PEFT)

Scopri il Parameter-Efficient Fine-Tuning (PEFT) per ottimizzare modelli di grandi dimensioni come Ultralytics . Impara a ridurre i costi di calcolo e ottenere risultati SOTA sulle GPU.

Il Parameter-Efficient Fine-Tuning (PEFT) è una sofisticata strategia di ottimizzazione nel machine learning (ML) che consente la personalizzazione di modelli pre-addestrati di grandi dimensioni per compiti specifici, riducendo al minimo i costi computazionali. Poiché i moderni modelli di base sono cresciuti fino a comprendere miliardi di parametri, i metodi di addestramento tradizionali che aggiornano ogni peso nella rete sono diventati proibitivi in termini di hardware ed energia. Il PEFT affronta questa sfida congelando la stragrande maggioranza dei pesi del modello pre-addestrato e aggiornando solo un piccolo sottoinsieme di parametri o aggiungendo livelli di adattatori leggeri. Questo approccio abbassa la barriera all'ingresso, consentendo agli sviluppatori di ottenere risultati all'avanguardia su GPU di livello consumer senza richiedere data center su scala industriale.

I meccanismi dell'efficienza

Il principio fondamentale del PEFT si basa sul transfer learning, in cui un modello sfrutta le rappresentazioni delle caratteristiche apprese da enormi set di dati pubblici come ImageNet per risolvere nuovi problemi. In un flusso di lavoro standard, l'adattamento di un modello potrebbe comportare una "messa a punto completa", in cui la retropropagazione regola ogni parametro nella rete neurale.

Le tecniche PEFT, come LoRA (Low-Rank Adaptation), seguono un percorso diverso. Mantengono statica la "spina dorsale" pesante del modello, preservandone le conoscenze generali, e inseriscono piccole matrici addestrabili in livelli specifici. Ciò impedisce il catastrophic forgetting, un fenomeno in cui un modello perde le sue capacità originali mentre apprende nuove informazioni. Riducendo il numero di parametri addestrabili fino al 99%, il PEFT diminuisce significativamente i requisiti di archiviazione e consente di scambiare più adattatori specifici per attività all'interno di un unico modello di base durante l' inferenza in tempo reale.

Applicazioni nel mondo reale

Il PEFT è particolarmente utile nei settori in cui l'edge computing e la privacy dei dati sono fondamentali.

  • AI in agricoltura: le startup Agritech spesso implementano modelli su droni con batteria e potenza di elaborazione limitate. Utilizzando PEFT, gli ingegneri possono prendere un modello altamente efficiente come YOLO26 e ottimizzarlo per detect parassiti regionali detect , come la falena autunnale, utilizzando un piccolo set di dati personalizzato. Bloccando la struttura portante, l'addestramento può essere effettuato rapidamente su un laptop e il modello risultante rimane abbastanza leggero da poter essere elaborato a bordo.
  • AI nel settore sanitario: nell' analisi delle immagini mediche, i dati annotati sono spesso scarsi e costosi da ottenere. Gli ospedali utilizzano il PEFT per adattare modelli di visione generici al fine di identificare anomalie nelle scansioni MRI. Poiché i parametri di base sono congelati, il modello è meno soggetto a sovradattamento su piccoli set di dati, garantendo prestazioni diagnostiche robuste e preservando al contempo la privacy dei dati dei pazienti.

Implementazione dei livelli congelati con Ultralytics

Ultralytics , l'efficienza dei parametri viene spesso ottenuta "congelando" i livelli iniziali di una rete. Ciò garantisce che gli estrattori di caratteristiche robusti rimangano invariati, mentre solo la testa o i livelli successivi si adattano alle nuove classi. Si tratta di un'implementazione pratica dei principi PEFT per il rilevamento di oggetti.

L'esempio seguente mostra come addestrare un modello YOLO26 congelando i primi 10 livelli della struttura di base per risparmiare risorse di calcolo:

from ultralytics import YOLO

# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")

# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)

Per i team che desiderano scalare questo processo, Ultralytics offre un'interfaccia unificata per gestire i set di dati, automatizzare l'annotazione e monitorare queste efficienti sessioni di formazione dal cloud.

Distinguere il PEFT dai concetti correlati

Per selezionare la giusta strategia di adattamento del modello, è utile distinguere il PEFT da termini simili:

  • Messa a punto: spesso denominata "messa a punto completa", questo processo aggiorna tutti i parametri del modello. Sebbene offra la massima plasticità, è computazionalmente oneroso e richiede il salvataggio di una copia completa del modello per ogni attività. Il PEFT è una sottocategoria della messa a punto incentrata sull'efficienza.
  • Prompt Engineering: questo comporta la creazione di input di testo per guidare l'output di un modello senza modificare alcun peso interno. Il PEFT, al contrario, alterando matematicamente un sottoinsieme di pesi o adattatori per modificare in modo permanente il modo in cui il modello elabora i dati.
  • Distillazione della conoscenza: Questa tecnica addestra un piccolo modello studente a imitare un grande modello insegnante. Sebbene il risultato sia un modello efficiente, si tratta di un metodo di compressione, mentre il PEFT è un metodo di adattamento utilizzato per insegnare nuove competenze a un modello esistente.

Democratizzando l'accesso all'intelligenza artificiale ad alte prestazioni, PEFT consente agli sviluppatori di creare strumenti specializzati per veicoli autonomi e produzione intelligente senza la necessità di infrastrutture supercomputer.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora