Scopri cos'è l'underfitting, le cause, i segnali e le soluzioni. Scopri come migliorare le prestazioni del modello ed evitare i problemi di underfitting.
L'underfitting si verifica quando un modello di apprendimento automatico è troppo semplice per catturare la struttura sottostante dei dati. Questo accade tipicamente quando il modello ha un numero troppo basso di parametri o caratteristiche rispetto alla complessità dei dati che sta cercando di apprendere. Di conseguenza, il modello non riesce ad apprendere in modo adeguato dai dati di addestramento e ottiene scarsi risultati non solo sul set di addestramento ma anche su dati non visti, come un set di validazione o di test.
I modelli underfit sono spesso caratterizzati da un elevato bias e da una bassa varianza. Il bias si riferisce all'errore introdotto dall'approssimazione di un problema reale, che può essere complesso, con un modello semplificato. Un modello underfit fa ipotesi troppo semplicistiche sui dati, causando errori sistematici. La varianza, invece, si riferisce alla sensibilità del modello alle fluttuazioni dei dati di formazione. I modelli underfit presentano una bassa varianza perché sono troppo semplici per essere influenzati dalle variazioni dei dati di formazione. Tuttavia, questa semplicità significa anche che non sono in grado di catturare modelli e sfumature importanti nei dati.
Diversi fattori possono contribuire all'underfitting:
Identificare l'underfitting è essenziale per migliorare le prestazioni del modello. I segni di underfitting includono:
Per combattere l'underfitting, considera le seguenti strategie:
È importante distinguere l'underfitting dall'overfitting. Mentre l'underfitting si verifica quando un modello è troppo semplice, l'overfitting si verifica quando un modello è troppo complesso e inizia a memorizzare i dati di addestramento, compresi i rumori e gli outlier. I modelli overfit hanno prestazioni eccezionali sui dati di addestramento, ma scarse sui dati non visti. Bilanciare la complessità del modello e la formazione è fondamentale per evitare sia l'underfitting che l'overfitting.
Immagina di dover costruire un modello per prevedere i prezzi delle case in base alle loro dimensioni. Se utilizzi un semplice modello di regressione lineare e ipotizzi che i prezzi delle case aumentino linearmente in base alle dimensioni, potresti non adattare i dati. In realtà, la relazione tra le dimensioni delle case e il loro prezzo è probabilmente più complessa e coinvolge fattori come i rendimenti decrescenti per le case più grandi o i prezzi più alti per alcune fasce di dimensioni. Un modello lineare non riuscirebbe a cogliere queste sfumature, con conseguenti scarse prestazioni predittive sia sui dati di formazione che su quelli nuovi.
Considera un compito di classificazione di immagini in cui stai cercando di classificare immagini di animali in diverse categorie. Se utilizzi un modello molto semplice, come la regressione logistica, potresti non adattare i dati. La classificazione delle immagini spesso richiede la cattura di modelli e caratteristiche complesse nelle immagini, cosa che un modello semplice non può fare. Di conseguenza, il modello avrebbe scarse prestazioni sia sul set di addestramento che sulle nuove immagini non viste. L'utilizzo di un modello più complesso, come una rete neurale convoluzionale (CNN), può migliorare notevolmente le prestazioni.
Comprendendo le cause e i segni dell'underfitting, i professionisti possono prendere le misure appropriate per migliorare i loro modelli. Strumenti come Ultralytics YOLOv8 offrono funzionalità avanzate per la costruzione e la messa a punto di modelli complessi, aiutando a evitare l'underfitting e a migliorare le prestazioni in diverse attività di computer vision. Per ulteriori approfondimenti sulla formazione e l'ottimizzazione dei modelli, visita il blogUltralytics .