Controllo verde
Link copiato negli appunti

L'importanza di dataset di computer vision di alta qualità

Unisciti a noi per esplorare la necessità di dati di alta qualità quando si costruiscono modelli di computer vision. Scopri come la qualità dei dati può influire sulle prestazioni del modello.

Nel 2019, l'adozione dell'intelligenza artificiale (AI) nelle aziende è aumentata del 270% rispetto ai quattro anni precedenti. Questa crescita ha alimentato la rapida integrazione delle applicazioni di computer vision (CV), sistemi di AI che consentono alle macchine di interpretare e analizzare i dati visivi del mondo circostante. Queste applicazioni sono alla base di un'ampia gamma di tecnologie, dall'individuazione di malattie nell'imaging medico e l'attivazione di veicoli autonomi all'ottimizzazione del flusso del traffico nei trasporti e al miglioramento della sorveglianza nei sistemi di sicurezza. 

La notevole accuratezza e le prestazioni ineguagliabili di modelli di visione computerizzata all'avanguardia come Ultralytics YOLO11 hanno determinato questa crescita esponenziale. Tuttavia, le prestazioni di questi modelli dipendono fortemente dalla qualità e dalla quantità dei dati utilizzati per addestrare, validare e testare i modelli. 

Senza dati sufficienti e di alta qualità, i modelli di computer vision possono essere difficili da addestrare e mettere a punto in modo efficace per soddisfare gli standard del settore. In questo articolo esploreremo il ruolo vitale dei dati nella creazione di modelli di computer vision e perché i dati di alta qualità sono così importanti nella computer vision. Inoltre, ti illustreremo alcuni consigli per aiutarti a creare set di dati di alta qualità mentre lavori all'addestramento di modelli di computer vision personalizzati. Iniziamo!

Il ruolo dei dati nella costruzione di modelli di visione artificiale

I modelli di computer vision possono essere addestrati su grandi set di immagini e video per riconoscere modelli e fare previsioni accurate. Ad esempio, un modello di rilevamento degli oggetti può essere addestrato su centinaia - o addirittura migliaia - di immagini e video etichettati per identificare con precisione gli oggetti. 

La qualità e la quantità di questi dati di formazione influenzano le prestazioni del modello

Poiché i modelli di computer vision possono imparare solo dai dati a cui sono esposti, fornire dati di alta qualità ed esempi diversificati è fondamentale per il loro successo. Senza set di dati sufficienti e diversificati, questi modelli potrebbero non riuscire ad analizzare con precisione gli scenari del mondo reale e potrebbero produrre risultati distorti o imprecisi. 

Ecco perché è importante capire bene il ruolo dei dati nell'addestramento dei modelli . Prima di illustrare le caratteristiche dei dati di alta qualità, cerchiamo di capire quali sono i tipi di set di dati che si possono incontrare durante l'addestramento dei modelli di computer vision.

Tipi di set di dati di visione artificiale

Nella visione computerizzata, i dati utilizzati nel processo di formazione sono suddivisi in tre tipi, ognuno dei quali ha uno scopo specifico. Ecco una rapida panoramica di ciascun tipo:

  • Dati di formazione: Si tratta del set di dati principale utilizzato per addestrare il modello da zero. Si tratta di immagini e video con etichette predefinite, che permettono al modello di apprendere modelli e riconoscere oggetti. 
  • Dati di convalida: Si tratta di un insieme di dati utilizzati per verificare le prestazioni di un modello in fase di addestramento. Serve a garantire che il modello funzioni correttamente su dati nuovi e non visti.
  • Dati di test: Un insieme separato di dati utilizzato per valutare le prestazioni finali di un modello addestrato. Verifica la capacità del modello di fare previsioni su dati completamente nuovi e non visti.
Figura 1. Come vengono classificati i dati nella computer vision.

Le 5 caratteristiche principali dei dataset di computer vision di alta qualità

Indipendentemente dal tipo di dataset, i dati di alta qualità sono essenziali per costruire modelli di computer vision di successo. Ecco alcune delle caratteristiche principali che rendono un set di dati di alta qualità:

  • Precisione: Idealmente, i dati dovrebbero rispecchiare fedelmente le situazioni del mondo reale e includere etichette corrette. Ad esempio, quando si parla di Vision AI nel settore sanitario, le immagini di radiografie o scansioni devono essere etichettate con precisione per aiutare il modello ad apprendere correttamente. 
  • Diversità: Un buon set di dati include una varietà di esempi per aiutare il modello a ottenere buone prestazioni in situazioni diverse. Ad esempio, se un modello sta imparando a rilevare le auto, il set di dati dovrebbe includere auto di diverse forme, dimensioni e colori in varie situazioni (giorno, notte, pioggia, ecc.).
  • Coerenza: I set di dati di alta qualità seguono un formato uniforme e standard di qualità. Ad esempio, le immagini dovrebbero avere risoluzioni simili (non alcune sfocate e altre nitide) e passare attraverso le stesse fasi di pre-elaborazione, come il ridimensionamento o la regolazione del colore, in modo che il modello impari da informazioni coerenti.
  • Tempestività: I dataset aggiornati regolarmente possono tenere il passo con i cambiamenti del mondo reale. Supponiamo che si stia addestrando un modello per rilevare tutti i tipi di veicoli. Se ne vengono introdotti di nuovi, come gli scooter elettrici, è necessario aggiungerli al set di dati per assicurarsi che il modello rimanga accurato e aggiornato.
  • Privacy: Se un set di dati include informazioni sensibili, come le foto di persone, deve rispettare le regole sulla privacy. Tecniche come l'anonimizzazione (rimozione di dettagli identificabili) e il mascheramento dei dati (occultamento di parti sensibili) possono proteggere la privacy, consentendo comunque di utilizzare i dati in modo sicuro.

Problemi causati da dati di bassa qualità

Se comprendere le caratteristiche dei dati di alta qualità è importante, è altrettanto fondamentale considerare come i dati di bassa qualità possano influenzare i tuoi modelli di computer vision.

Problemi come l'overfitting e l'underfitting possono influire pesantemente sulle prestazioni del modello. L 'overfitting si verifica quando un modello si comporta bene con i dati di addestramento ma fatica con i dati nuovi o non visti, spesso perché il dataset non è vario. L 'underfitting, invece, si verifica quando il dataset non fornisce abbastanza esempi o qualità per consentire al modello di apprendere modelli significativi. Per evitare questi problemi, è essenziale mantenere dataset diversificati, imparziali e di alta qualità, per garantire prestazioni affidabili sia nella formazione che nelle applicazioni reali.

Figura 2. Underfitting vs. Overfitting. Overfitting.

I dati di bassa qualità possono anche rendere difficile per i modelli estrarre e apprendere modelli significativi dai dati grezzi, un processo noto come estrazione di caratteristiche. Se il set di dati è incompleto, irrilevante o poco vario, il modello può avere difficoltà a funzionare in modo efficace. 

A volte i dati di bassa qualità possono essere il risultato di una semplificazione dei dati. La semplificazione dei dati può aiutare a risparmiare spazio di archiviazione e a ridurre i costi di elaborazione, ma un'eccessiva semplificazione può eliminare dettagli importanti di cui il modello ha bisogno per funzionare bene. Ecco perché è così importante mantenere dati di alta qualità durante l'intero processo di computer vision, dalla raccolta alla distribuzione. Come regola generale, i set di dati devono includere le caratteristiche essenziali e rimanere diversificati e accurati per garantire previsioni affidabili del modello.

Figura 3. Comprendere l'estrazione delle caratteristiche.

Suggerimenti per mantenere la qualità del tuo set di dati di visione artificiale

Ora che abbiamo capito l'importanza dei dati di alta qualità e l'impatto di quelli di bassa qualità, analizziamo come assicurarci che il tuo set di dati soddisfi standard elevati.

Tutto inizia con una raccolta dati affidabile. L'utilizzo di fonti diverse come il crowdsourcing, i dati provenienti da regioni geografiche diverse e la generazione di dati sintetici riduce i pregiudizi e aiuta i modelli a gestire gli scenari del mondo reale. Una volta raccolti i dati, la pre-elaborazione è fondamentale. Tecniche come la normalizzazione, che scala i valori dei pixel in un intervallo coerente, e l'incremento, che applica trasformazioni come la rotazione, il capovolgimento e lo zoom, migliorano il set di dati. Questi passaggi aiutano il modello a generalizzarsi meglio e a diventare più robusto, riducendo il rischio di overfitting.

La corretta suddivisione dei set di dati è un altro passo fondamentale. Un approccio comune è quello di destinare il 70% dei dati alla formazione, il 15% alla validazione e il 15% ai test. Controllare che non ci siano sovrapposizioni tra questi set evita la perdita di dati e garantisce una valutazione accurata del modello.

Figura 4. Una suddivisione comune dei dati tra formazione, validazione e test.

Per risparmiare tempo e risorse computazionali, puoi anche utilizzare modelli pre-addestrati come YOLO11. YOLO11 I modelli preaddestrati, addestrati su grandi set di dati e progettati per diversi compiti di computer vision, possono essere messi a punto sul tuo set di dati specifico per soddisfare le tue esigenze. Adattando il modello ai tuoi dati, puoi evitare l'overfitting e mantenere prestazioni elevate. 

La strada da percorrere per i dataset di visione artificiale

La comunità dell'IA si è tradizionalmente concentrata sul miglioramento delle prestazioni costruendo modelli più profondi e con più livelli. Tuttavia, con la continua evoluzione dell'IA, l'attenzione si sta spostando dall'ottimizzazione dei modelli al miglioramento della qualità dei set di dati. Andrew Ng, spesso definito il "padre dell'IA", ritiene che "il cambiamento più importante che il mondo dell'IA dovrà affrontare in questo decennio sarà il passaggio all'IA incentrata sui dati". 

Questo approccio enfatizza l'affinamento dei set di dati migliorando l'accuratezza delle etichette, eliminando gli esempi rumorosi e garantendo la diversità. Per la computer vision, questi principi sono fondamentali per affrontare problemi come le distorsioni e i dati di bassa qualità, consentendo ai modelli di funzionare in modo affidabile negli scenari reali.

Guardando al futuro, il progresso della computer vision si baserà sulla creazione di set di dati più piccoli e di alta qualità piuttosto che sulla raccolta di grandi quantità di dati. Secondo Andrew Ng, "Migliorare i dati non è una fase di pre-elaborazione una tantum, ma è una parte fondamentale del processo iterativo di sviluppo dei modelli di apprendimento automatico ". Concentrandosi su principi incentrati sui dati, la computer vision continuerà a diventare più accessibile, efficiente e d'impatto in diversi settori.

Punti di forza

I dati svolgono un ruolo fondamentale durante tutto il ciclo di vita di un modello di visione. Dalla raccolta dei dati alla preelaborazione, alla formazione, alla convalida e ai test, la qualità dei dati influisce direttamente sulle prestazioni e sull'affidabilità del modello. Dando la priorità a dati di alta qualità e a un'etichettatura accurata, possiamo costruire modelli di visione computerizzata robusti e in grado di fornire risultati affidabili e precisi. 

Mentre ci muoviamo verso un futuro guidato dai dati, è essenziale affrontare le considerazioni etiche per mitigare i rischi legati alla parzialità e alle norme sulla privacy. In definitiva, garantire l'integrità e l'equità dei dati è fondamentale per sbloccare il pieno potenziale delle tecnologie di computer vision.

Unisciti alla nostra comunità e consulta il nostro repository GitHub per saperne di più sull'IA. Dai un'occhiata alle nostre pagine dedicate alle soluzioni per esplorare altre applicazioni dell'IA in settori come l'agricoltura e la produzione.

Logo di FacebookLogo di TwitterLogo di LinkedInSimbolo di copia-link

Leggi tutto in questa categoria

Costruiamo insieme il futuro
di AI!

Inizia il tuo viaggio nel futuro dell'apprendimento automatico