Glossario

Underfitting

Impara a identificare, prevenire e risolvere il problema dell'underfitting nei modelli di apprendimento automatico grazie ai consigli degli esperti, alle strategie e agli esempi reali.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

Nel regno dell'apprendimento automatico, il raggiungimento di prestazioni ottimali del modello è un equilibrio delicato. Una sfida comune che si incontra durante l'addestramento dei modelli è l'underfitting. L'underfitting si verifica quando un modello di apprendimento automatico è troppo semplicistico per catturare i modelli sottostanti nei dati di formazione. In sostanza, significa che il modello non riesce ad apprendere i dati in modo efficace, con conseguenti scarse prestazioni sia sul set di addestramento che sui dati non visti. Ciò è spesso dovuto al fatto che il modello non ha la complessità necessaria per rappresentare le relazioni all'interno dei dati.

Quali sono le cause dell'underfitting?

Diversi fattori possono contribuire all'underfitting dei modelli di apprendimento automatico.

  • Semplicità del modello: L'utilizzo di un modello troppo semplice per la complessità dei dati è una delle cause principali. Ad esempio, il tentativo di adattare un modello lineare a dati altamente non lineari probabilmente si tradurrà in un underfitting. Modelli più complessi come le reti neurali convoluzionali (CNN) sono spesso necessari per i set di dati più complessi.
  • Tempo di addestramento insufficiente: se un modello non viene addestrato per un numero sufficiente di epoche, potrebbe non avere sufficienti opportunità di apprendere i modelli di dati sottostanti. Un addestramento adeguato permette al modello di regolare i suoi pesi e le sue distorsioni per adattarsi meglio ai dati.
  • Mancanza di caratteristiche rilevanti: Se le caratteristiche di input fornite al modello non rappresentano adeguatamente le caratteristiche dei dati sottostanti, il modello potrebbe faticare ad apprendere in modo efficace. L 'ingegneria delle caratteristiche per creare caratteristiche più informative può aiutare a mitigare questo problema.
  • Regolarizzazione eccessiva: Sebbene le tecniche di regolarizzazione come la regolarizzazione L1 o L2 siano utili per evitare l 'overfitting, un'eccessiva regolarizzazione può limitare troppo il modello, portando a un underfitting.

Identificare l'underfitting

L'underfitting viene tipicamente identificato osservando le metriche delle prestazioni del modello durante l'addestramento e la convalida. Gli indicatori chiave includono:

  • Errore di formazione elevato: Il modello presenta un tasso di errore elevato sul set di dati di addestramento, il che indica che non sta imparando bene i dati di addestramento.
  • Errore di validazione elevato: Allo stesso modo, il modello mostra un alto tasso di errore sul set di dati di convalida, suggerendo una scarsa generalizzazione ai dati non visti.
  • Metriche di rendimento scarse: Metriche come l'accuratezza, la precisione, il richiamo o l'mAP sono significativamente inferiori a quelle desiderate sia sui set di formazione che su quelli di convalida. Consulta le metriche delle prestazioni diYOLO per maggiori dettagli.

Affrontare l'underfitting

Per combattere l'underfitting si possono utilizzare diverse strategie:

  • Aumenta la complessità del modello: Prendi in considerazione l'utilizzo di un'architettura di modello più complessa. Ad esempio, se un modello lineare non si adatta bene, prova a utilizzare un modello polinomiale, un albero decisionale o una rete neurale come Ultralytics YOLOv8 per le attività di rilevamento degli oggetti.
  • Addestramento più lungo: aumenta il numero di epoche di addestramento per dare al modello più tempo per imparare i modelli dei dati. Strumenti come Ultralytics HUB facilitano l'addestramento e il monitoraggio dei modelli.
  • Ingegneria delle caratteristiche: Creare caratteristiche più rilevanti e informative dai dati esistenti. Questo potrebbe comportare la creazione di nuove caratteristiche, la trasformazione di quelle esistenti o la selezione di un sottoinsieme di caratteristiche più rilevanti.
  • Ridurre la regolarizzazione: Se si utilizza la regolarizzazione, prova a ridurre la forza della regolarizzazione per consentire al modello una maggiore flessibilità nell'adattarsi ai dati di allenamento.
  • Raccogli più dati: In alcuni casi, l'underfitting può essere dovuto a dati di addestramento insufficienti. Aumentando le dimensioni del set di dati di addestramento si può fornire al modello un maggior numero di esempi da cui imparare. Esplora i dataset diUltralytics per trovare potenziali dataset da utilizzare.

Esempi di underfitting nel mondo reale

  1. Regressione lineare semplice per la classificazione delle immagini: Immagina di utilizzare un modello di regressione lineare di base per la classificazione di immagini complesse, come la classificazione di diverse razze di cani. Un modello lineare è troppo semplicistico per catturare le intricate caratteristiche visive che differenziano le razze di cani, e ciò porta a un significativo underfitting e a una scarsa accuratezza della classificazione. Un modello più appropriato sarebbe una CNN addestrata su un ampio set di dati come ImageNet per apprendere efficacemente le caratteristiche dell'immagine.
  2. Modello di base per il rilevamento di oggetti in scene dense: Considera l'utilizzo di una rete neurale molto superficiale per il rilevamento di oggetti in una scena di strada affollata. Un modello così semplice potrebbe non riuscire a rilevare molti oggetti, soprattutto quelli più piccoli o occlusi, a causa della sua incapacità di apprendere relazioni spaziali complesse e informazioni contestuali. L'utilizzo di un'architettura più avanzata e profonda come Ultralytics YOLO11 sarebbe necessario per gestire la complessità e la densità degli oggetti in queste scene.

Underfitting vs. Overfitting

L'underfitting è l'opposto dell'overfitting. Mentre l'underfitting si verifica quando un modello è troppo semplice e non riesce ad apprendere adeguatamente i dati di addestramento, l'overfitting si verifica quando un modello è eccessivamente complesso e apprende troppo bene i dati di addestramento, includendo rumore e dettagli irrilevanti. I modelli overfitting hanno prestazioni eccezionali sui dati di addestramento, ma non sono all'altezza di nuovi dati non visti perché non riescono a generalizzare. L'obiettivo dell'apprendimento automatico è quello di trovare un modello che raggiunga un equilibrio, evitando sia l'underfitting che l'overfitting, per ottenere buone prestazioni e generalizzazione. Tecniche come la convalida incrociata e la regolazione degli iperparametri sono fondamentali per trovare questo equilibrio.

Leggi tutto