Scoprite come LoRA mette a punto in modo efficiente modelli di AI di grandi dimensioni come YOLO, riducendo i costi e consentendo l'implementazione edge con risorse minime.
LoRA, o Low-Rank Adaptation, è una tecnica altamente efficiente utilizzata per adattare modelli di machine learning (ML) pre-addestrati di grandi dimensioni per compiti specifici, senza la necessità di riaddestrare l'intero modello. Originariamente descritta in un documento dei ricercatori Microsoft, LoRA è diventata una pietra miliare del Parameter-Efficient Fine-Tuning (PEFT). Riduce drasticamente il costo computazionale e i requisiti di archiviazione associati alla personalizzazione di modelli massicci, come i Large Language Models (LLM) e altri modelli di base.
Invece di aggiornare i miliardi di pesi di un modello pre-addestrato, LoRA li congela tutti. Quindi inietta una coppia di piccole matrici addestrabili, chiamate adattatori a basso rango, in strati specifici del modello, spesso all'interno del meccanismo di attenzione di un'architettura Transformer. Durante il processo di addestramento, vengono aggiornati solo i parametri di queste nuove matrici, molto più piccole. L'idea di fondo è che le modifiche necessarie per adattare il modello a un nuovo compito possono essere rappresentate con un numero di parametri molto inferiore a quello del modello originale. Questo sfrutta principi simili alla riduzione della dimensionalità per catturare le informazioni essenziali per l'adattamento in una forma compatta. Una volta completato l'addestramento, il piccolo adattatore può essere unito ai pesi originali o mantenuto separato per il cambio di compito modulare.
L'efficienza di LoRA lo rende ideale per un'ampia gamma di applicazioni, soprattutto quando sono necessari più modelli personalizzati.
È utile distinguere LoRA da altre tecniche di adattamento dei modelli:
In sintesi, LoRA offre un modo potente ed efficiente dal punto di vista delle risorse per personalizzare modelli di base pre-addestrati di grandi dimensioni per un'ampia gamma di compiti specifici nell'ambito dell'elaborazione del linguaggio naturale (NLP) e della visione artificiale, rendendo l'IA avanzata più pratica e accessibile. Questo approccio consente di gestire e distribuire facilmente molti modelli specializzati, un processo semplificato da piattaforme come Ultralytics HUB per la gestione del ciclo di vita dei modelli.