Glossario

LoRA (Low-Rank Adaptation)

Scoprite come LoRA mette a punto in modo efficiente modelli di AI di grandi dimensioni come YOLO, riducendo i costi e consentendo l'implementazione edge con risorse minime.

LoRA, o Low-Rank Adaptation, è una tecnica altamente efficiente utilizzata per adattare modelli di machine learning (ML) pre-addestrati di grandi dimensioni per compiti specifici, senza la necessità di riaddestrare l'intero modello. Originariamente descritta in un documento dei ricercatori Microsoft, LoRA è diventata una pietra miliare del Parameter-Efficient Fine-Tuning (PEFT). Riduce drasticamente il costo computazionale e i requisiti di archiviazione associati alla personalizzazione di modelli massicci, come i Large Language Models (LLM) e altri modelli di base.

Come funziona la LoRA

Invece di aggiornare i miliardi di pesi di un modello pre-addestrato, LoRA li congela tutti. Quindi inietta una coppia di piccole matrici addestrabili, chiamate adattatori a basso rango, in strati specifici del modello, spesso all'interno del meccanismo di attenzione di un'architettura Transformer. Durante il processo di addestramento, vengono aggiornati solo i parametri di queste nuove matrici, molto più piccole. L'idea di fondo è che le modifiche necessarie per adattare il modello a un nuovo compito possono essere rappresentate con un numero di parametri molto inferiore a quello del modello originale. Questo sfrutta principi simili alla riduzione della dimensionalità per catturare le informazioni essenziali per l'adattamento in una forma compatta. Una volta completato l'addestramento, il piccolo adattatore può essere unito ai pesi originali o mantenuto separato per il cambio di compito modulare.

Applicazioni del mondo reale

L'efficienza di LoRA lo rende ideale per un'ampia gamma di applicazioni, soprattutto quando sono necessari più modelli personalizzati.

  • Personalizzazione dei chatbot: Un'azienda può prendere un LLM potente e generico e utilizzare LoRA per addestrarlo sulla propria base di conoscenze interne. In questo modo si crea un chatbot specializzato nel servizio clienti che comprende la terminologia specifica dell'azienda senza i costi immensi di una messa a punto completa.
  • Trasferimento di stile e arte dell'IA: Artisti e designer usano LoRA per adattare modelli di IA generativa come Stable Diffusion a uno specifico stile artistico. Addestrando un adattatore su un piccolo set di immagini proprie, possono generare nuova arte che imita la loro estetica unica, una pratica popolare su piattaforme come Hugging Face.

LoRA e concetti correlati

È utile distinguere LoRA da altre tecniche di adattamento dei modelli:

  • Messa a punto completa: Questo metodo aggiorna tutti i pesi di un modello pre-addestrato su un nuovo set di dati. Pur essendo spesso efficace, richiede notevoli risorse di calcolo(GPU) e di archiviazione per ogni modello adattato. LoRA, invece, congela i pesi originali e addestra solo le piccole matrici di adattamento iniettate. Per ulteriori dettagli, consultare la voce del nostro glossario sul fine-tuning e la panoramica sul fine-tuning di NVIDIA.
  • Regolazione dei suggerimenti: Questa tecnica mantiene i pesi del modello completamente congelati e apprende invece continui "suggerimenti morbidi" (vettori aggiunti agli embeddings di input) per orientare il comportamento del modello per compiti specifici. A differenza di LoRA, non modifica i pesi del modello, ma si concentra esclusivamente sull'adattamento della rappresentazione dell'input. Per saperne di più sulla regolazione dei prompt e sull'ingegneria dei prompt.
  • Altri metodi PEFT: LoRA è solo una tecnica all'interno del più ampio campo del Parameter-Efficient Fine-Tuning (PEFT). Altri metodi includono Adapter Tuning (simile ma con strutture di adattatori leggermente diverse), Prefix Tuning e IA³, ognuno dei quali offre diversi compromessi in termini di efficienza dei parametri e prestazioni. Questi metodi sono comunemente disponibili in framework come la libreria Hugging Face PEFT.

In sintesi, LoRA offre un modo potente ed efficiente dal punto di vista delle risorse per personalizzare modelli di base pre-addestrati di grandi dimensioni per un'ampia gamma di compiti specifici nell'ambito dell'elaborazione del linguaggio naturale (NLP) e della visione artificiale, rendendo l'IA avanzata più pratica e accessibile. Questo approccio consente di gestire e distribuire facilmente molti modelli specializzati, un processo semplificato da piattaforme come Ultralytics HUB per la gestione del ciclo di vita dei modelli.

Unitevi alla comunità di Ultralytics

Entrate a far parte del futuro dell'IA. Connettetevi, collaborate e crescete con gli innovatori globali.

Iscriviti ora
Link copiato negli appunti