Glossario

Underfitting

Scopri cos'è l'underfitting, le cause, i segnali e le soluzioni. Scopri come migliorare le prestazioni del modello ed evitare i problemi di underfitting.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

L'underfitting si verifica quando un modello di apprendimento automatico è troppo semplice per catturare la struttura sottostante dei dati. Questo accade tipicamente quando il modello ha un numero troppo basso di parametri o caratteristiche rispetto alla complessità dei dati che sta cercando di apprendere. Di conseguenza, il modello non riesce ad apprendere in modo adeguato dai dati di addestramento e ottiene scarsi risultati non solo sul set di addestramento ma anche su dati non visti, come un set di validazione o di test.

Caratteristiche principali dell'underfitting

I modelli underfit sono spesso caratterizzati da un elevato bias e da una bassa varianza. Il bias si riferisce all'errore introdotto dall'approssimazione di un problema reale, che può essere complesso, con un modello semplificato. Un modello underfit fa ipotesi troppo semplicistiche sui dati, causando errori sistematici. La varianza, invece, si riferisce alla sensibilità del modello alle fluttuazioni dei dati di formazione. I modelli underfit presentano una bassa varianza perché sono troppo semplici per essere influenzati dalle variazioni dei dati di formazione. Tuttavia, questa semplicità significa anche che non sono in grado di catturare modelli e sfumature importanti nei dati.

Cause dell'underfitting

Diversi fattori possono contribuire all'underfitting:

  • Complessità del modello: Utilizzo di un modello troppo semplice per la complessità dei dati. Ad esempio, cercando di adattare un modello lineare a dati con una relazione altamente non lineare.
  • Formazione insufficiente: Non addestrare il modello per un numero sufficiente di epoche o utilizzare un tasso di apprendimento troppo alto, fa sì che il modello converga prematuramente prima di riuscire ad apprendere i modelli sottostanti.
  • Scarsa ingegnerizzazione delle caratteristiche: Non includere caratteristiche rilevanti o utilizzare caratteristiche che non rappresentano adeguatamente la struttura sottostante dei dati. Un'ingegneria delle caratteristiche efficace è fondamentale per costruire modelli in grado di generalizzare bene.
  • Eccessiva regolarizzazione: L'applicazione di un'eccessiva regolarizzazione, che penalizza la complessità del modello e può impedire al modello di apprendere modelli importanti.

Rilevare l'underfitting

Identificare l'underfitting è essenziale per migliorare le prestazioni del modello. I segni di underfitting includono:

  • Errore di formazione elevato: Il modello ha un rendimento scarso sui dati di addestramento, il che indica che non ha appreso i modelli sottostanti.
  • Errore di convalida/test elevato: Le scarse prestazioni sui set di convalida o di prova, simili all'errore di formazione, indicano che il modello è troppo semplicistico.
  • Curve di apprendimento: Tracciare le prestazioni del modello sui set di formazione e di convalida nel tempo può rivelare un underfitting. Se entrambe le curve si stabilizzano a un tasso di errore elevato, è probabile che il modello sia in underfitting.

Affrontare l'underfitting

Per combattere l'underfitting, considera le seguenti strategie:

  • Aumenta la complessità del modello: Usa un modello più complesso con più parametri o livelli. Ad esempio, passa da un modello lineare a un modello polinomiale o da una rete neurale superficiale a una profonda.
  • Addestra più a lungo: aumenta il numero di epoche di addestramento o regola il tasso di apprendimento per dare al modello più tempo per imparare dai dati.
  • Migliorare l'ingegneria delle caratteristiche: Aggiungi caratteristiche più rilevanti o trasforma quelle esistenti per rappresentare meglio la struttura dei dati. Tecniche come la creazione di termini di interazione o di caratteristiche polinomiali possono essere d'aiuto.
  • Ridurre la regolarizzazione: Diminuisce la quantità di regolarizzazione applicata al modello, consentendogli di adattarsi meglio ai dati di formazione.

Underfitting vs. Overfitting

È importante distinguere l'underfitting dall'overfitting. Mentre l'underfitting si verifica quando un modello è troppo semplice, l'overfitting si verifica quando un modello è troppo complesso e inizia a memorizzare i dati di addestramento, compresi i rumori e gli outlier. I modelli overfit hanno prestazioni eccezionali sui dati di addestramento, ma scarse sui dati non visti. Bilanciare la complessità del modello e la formazione è fondamentale per evitare sia l'underfitting che l'overfitting.

Esempi del mondo reale

Esempio 1: Previsione dei prezzi delle case

Immagina di dover costruire un modello per prevedere i prezzi delle case in base alle loro dimensioni. Se utilizzi un semplice modello di regressione lineare e ipotizzi che i prezzi delle case aumentino linearmente in base alle dimensioni, potresti non adattare i dati. In realtà, la relazione tra le dimensioni delle case e il loro prezzo è probabilmente più complessa e coinvolge fattori come i rendimenti decrescenti per le case più grandi o i prezzi più alti per alcune fasce di dimensioni. Un modello lineare non riuscirebbe a cogliere queste sfumature, con conseguenti scarse prestazioni predittive sia sui dati di formazione che su quelli nuovi.

Esempio 2: Classificazione delle immagini

Considera un compito di classificazione di immagini in cui stai cercando di classificare immagini di animali in diverse categorie. Se utilizzi un modello molto semplice, come la regressione logistica, potresti non adattare i dati. La classificazione delle immagini spesso richiede la cattura di modelli e caratteristiche complesse nelle immagini, cosa che un modello semplice non può fare. Di conseguenza, il modello avrebbe scarse prestazioni sia sul set di addestramento che sulle nuove immagini non viste. L'utilizzo di un modello più complesso, come una rete neurale convoluzionale (CNN), può migliorare notevolmente le prestazioni.

Comprendendo le cause e i segni dell'underfitting, i professionisti possono prendere le misure appropriate per migliorare i loro modelli. Strumenti come Ultralytics YOLOv8 offrono funzionalità avanzate per la costruzione e la messa a punto di modelli complessi, aiutando a evitare l'underfitting e a migliorare le prestazioni in diverse attività di computer vision. Per ulteriori approfondimenti sulla formazione e l'ottimizzazione dei modelli, visita il blogUltralytics .

Leggi tutto