Glossario

Lisciatura dell'etichetta

Migliora l'accuratezza e la robustezza dei modelli di intelligenza artificiale con lo smoothing delle etichette, una tecnica comprovata per migliorare la generalizzazione e ridurre l'eccesso di fiducia.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

Lo smoothing delle etichette è una tecnica di regolarizzazione utilizzata durante l'addestramento dei modelli di classificazione nell'apprendimento automatico (ML) e nel deep learning (DL). Il suo obiettivo principale è quello di evitare che il modello diventi troppo sicuro di sé nelle sue previsioni. Invece di addestrare il modello utilizzando etichette "dure" (in cui alla classe corretta viene assegnata una probabilità di 1 e a tutte le altre classi 0), il label smoothing utilizza etichette "morbide". Ciò significa che alla classe corretta viene assegnata una probabilità leggermente inferiore (ad esempio, 0,9) e la piccola probabilità rimanente viene distribuita uniformemente tra le classi non corrette. Questa tecnica incoraggia il modello a essere meno sicuro delle sue previsioni, il che può portare a una migliore generalizzazione e a migliori prestazioni su dati non visti. Questa tecnica è stata discussa in particolare nel documento Rethinking the Inception Architecture.

Come funziona la levigatura delle etichette

Nei compiti di classificazione standard, i modelli vengono spesso addestrati utilizzando una funzione di perdita come l'entropia incrociata, che penalizza il modello in base a quanto la sua distribuzione di probabilità prevista si allontana dalla distribuzione target (etichette rigide). Con le etichette rigide, il modello è spinto a rendere la probabilità di uscita per la classe corretta estremamente vicina a 1 e le altre vicine a 0. Questo può portare a un overfitting, in cui il modello impara troppo bene i dati di addestramento, compreso il rumore, e non ha un buon rendimento sui nuovi dati. Lo smussamento delle etichette modifica le etichette target assegnando un piccolo valore di probabilità (epsilon) alle classi errate e riducendo la probabilità della classe corretta della quantità totale distribuita. In questo modo si evita che il modello produca valori logit eccessivamente grandi per la classe corretta, favorendo un modello meno sicuro e potenzialmente più robusto.

Vantaggi della levigatura delle etichette

  • Miglioramento della generalizzazione: Scoraggiando l'eccesso di fiducia, i modelli spesso generalizzano meglio ai dati non visti.
  • Migliore calibrazione del modello: Le probabilità previste tendono a riflettere in modo più accurato la reale probabilità di correttezza. Puoi saperne di più sulla calibrazione del modello in statistica.
  • Maggiore robustezza: I modelli possono diventare più resistenti alle etichette rumorose o a piccole variazioni nei dati di input.
  • Riduzione dell'overfitting: Agisce come un regolatore, aiutando a mitigare l'overfitting, in modo simile a tecniche come Dropout o Data Augmentation, anche se opera direttamente sulle etichette di destinazione.

Applicazioni del Label Smoothing

Lo smoothing delle etichette è ampiamente applicabile, in particolare nei compiti di classificazione in diversi domini:

  • Classificazione delle immagini: Quando si addestrano reti neurali profonde come i modelli Ultralytics YOLO su dataset di grandi dimensioni come ImageNet, lo smoothing delle etichette può contribuire ad aumentare l'accuratezza della convalida. Questo è particolarmente utile in campi come l'analisi delle immagini mediche, dove le stime di probabilità calibrate sono importanti.
  • Elaborazione del linguaggio naturale (NLP): in attività come la traduzione automatica o l'addestramento di modelli linguistici di grandi dimensioni(LLM) come BERT o GPT, l'attenuazione delle etichette aiuta a migliorare la fluidità e la generalizzazione dei modelli, impedendo loro di assegnare una certezza assoluta alle previsioni di parole specifiche. Framework come PyTorch e TensorFlow spesso includono opzioni per il label smoothing nelle loro funzioni di perdita.

Considerazioni

Sebbene sia generalmente vantaggioso, lo smoothing delle etichette potrebbe rallentare leggermente la convergenza del modello durante l'addestramento. L'entità del beneficio può dipendere anche dal set di dati e dall'architettura del modello. Il fattore di lisciatura (epsilon) è un iperparametro che può richiedere una regolazione per ottenere risultati ottimali. Viene spesso integrato nelle pipeline di addestramento dei moderni framework e piattaforme come Ultralytics HUB.

Leggi tutto