Glossario

Preelaborazione dei dati

Pre-elaborazione dei dati per l'apprendimento automatico. Impara tecniche come la pulizia, il ridimensionamento e la codifica per aumentare l'accuratezza e le prestazioni del modello.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

La preelaborazione dei dati comprende le tecniche essenziali utilizzate per pulire, trasformare e organizzare i dati grezzi in un formato strutturato e adatto prima che vengano utilizzati per addestrare i modelli di Machine Learning (ML). I dati grezzi raccolti da varie fonti sono spesso disordinati e contengono valori mancanti, incoerenze, rumore o errori. La pre-elaborazione affronta questi problemi, migliorando la qualità dei dati che si traduce direttamente in un miglioramento delle prestazioni, dell'accuratezza e dell'affidabilità dei modelli di ML. Questa fase è fondamentale in qualsiasi progetto basato sui dati, compresi quelli di Intelligenza Artificiale (AI) e Visione Artificiale (CV).

Perché la pre-elaborazione dei dati è importante?

Il principio "garbage in, garbage out" si applica fortemente all'apprendimento automatico. I modelli apprendono modelli direttamente dai dati su cui vengono addestrati. Se i dati di input sono errati, il modello apprenderà modelli errati o irrilevanti, con conseguenti previsioni errate e risultati inaffidabili. Dati di alta qualità e ben preparati sono fondamentali per costruire modelli efficaci, come quelli di Ultralytics YOLO per compiti impegnativi come il rilevamento di oggetti. Una corretta pre-elaborazione dei dati contribuisce in modo significativo a:

  • Miglioramento della precisione del modello: Dati puliti e ben strutturati aiutano il modello ad apprendere schemi significativi in modo più efficace.
  • Migliorare l'efficienza: La pre-elaborazione può ridurre le risorse computazionali necessarie per la formazione semplificando i dati o riducendone la dimensionalità.
  • Ridurre l'overfitting: Affrontare il rumore e i valori anomali può evitare che il modello apprenda questi dettagli irrilevanti, migliorando la sua capacità di generalizzarsi a nuovi dati ed evitando l 'overfitting.
  • Garantire l'affidabilità: Una formattazione coerente dei dati porta a un comportamento più stabile e affidabile del modello sia durante l'addestramento che l'inferenza.

Tecniche comuni di pre-elaborazione dei dati

Durante la pre-elaborazione dei dati vengono applicate diverse tecniche, spesso in combinazione tra loro, a seconda del tipo di dati e della specifica attività di ML. Le tecniche principali includono:

  • Pulizia dei dati: Si tratta di identificare e correggere gli errori, gestire i valori mancanti (ad esempio, attraverso l'imputazione o la rimozione) e gestire gli outlier o i punti di dati rumorosi. Strumenti come Pandas sono comunemente utilizzati per questo scopo in Python.
  • Trasformazione dei dati: Questa fase modifica i dati in un formato più adatto.
    • Scala: Tecniche come la Normalizzazione (scalare i dati in un intervallo, tipicamente da 0 a 1) o la Standardizzazione (scalare i dati in modo che abbiano una media pari a zero e una varianza unitaria) aiutano gli algoritmi sensibili alla scala delle caratteristiche, come i modelli basati sulla discesa del gradiente. Per saperne di più sulle tecniche di scalatura, consulta la documentazione sulla preelaborazione di Scikit-learn.
    • Codifica: Conversione di caratteristiche categoriali (come le etichette del testo) in rappresentazioni numeriche (ad esempio, codifica a un punto) che i modelli possono elaborare.
  • Ingegneria delle caratteristiche: Creare nuove caratteristiche potenzialmente più informative da quelle esistenti per migliorare le prestazioni del modello. Ciò richiede conoscenza del dominio e creatività.
  • Estrazione di caratteristiche: Ricavare automaticamente un insieme più piccolo di caratteristiche dai dati originali preservando le informazioni essenziali. Spesso si ricorre a tecniche come l'analisi delle componenti principali (PCA).
  • Riduzione della dimensionalità: Riduzione del numero di caratteristiche in ingresso per semplificare il modello, ridurre il tempo di addestramento e mitigare il rischio di overfitting, particolarmente importante per i Big Data.
  • Preelaborazione specifica dell'immagine: Per le attività di computer vision, le fasi comuni includono il ridimensionamento delle immagini in una dimensione coerente, la conversione degli spazi di colore (ad esempio, da BGR a RGB), la regolazione della luminosità o del contrasto e l'applicazione di filtri per la riduzione del rumore utilizzando librerie come OpenCV. Ultralytics fornisce indicazioni sulla pre-elaborazione dei dati annotati per i modelli YOLO .

Applicazioni del mondo reale

La pre-elaborazione dei dati è fondamentale in innumerevoli applicazioni di AI/ML:

  1. Analisi di immagini mediche: Prima che un modello di intelligenza artificiale possa analizzare le scansioni MRI o CT alla ricerca di anomalie come i tumori(esempio del dataset Brain Tumor), le immagini devono essere pre-elaborate. Questo spesso include la riduzione del rumore tramite filtri, la normalizzazione dell'intensità per standardizzare i livelli di luminosità tra scansioni e macchine diverse e la registrazione dell'immagine per allineare più scansioni. Queste fasi assicurano che il modello riceva input coerenti, migliorando la sua capacità di rilevare con precisione le anomalie più sottili. Questo è fondamentale per le applicazioni di IA nel settore sanitario.
  2. Veicoli autonomi: Le auto a guida autonoma si affidano a sensori come telecamere e LiDAR. I dati grezzi di questi sensori necessitano di un'ampia pre-elaborazione. Le immagini delle telecamere potrebbero richiedere il ridimensionamento, la correzione del colore e la regolazione della luminosità per gestire le diverse condizioni di illuminazione. I dati delle nuvole di punti LiDAR possono necessitare di un filtraggio per rimuovere il rumore o i punti a terra. Questa pre-elaborazione garantisce che i sistemi di rilevamento e tracciamento degli oggetti ricevano dati puliti e standardizzati per identificare in modo affidabile pedoni, veicoli e ostacoli, fondamentali per la sicurezza nelle applicazioni di AI nel settore automobilistico.

Preelaborazione dei dati e concetti correlati

È utile distinguere la pre-elaborazione dei dati da termini strettamente correlati:

La gestione dei dataset e l'applicazione delle fasi di pre-elaborazione possono essere semplificate utilizzando piattaforme come Ultralytics HUB, che offre strumenti per la gestione dei dataset e la formazione dei modelli.

Leggi tutto