Glossario

Precisione

Scopri l'importanza dell'accuratezza nell'apprendimento automatico, il suo calcolo, i limiti con i set di dati sbilanciati e i modi per migliorare le prestazioni dei modelli.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

L'accuratezza è una metrica di performance fondamentale nell'apprendimento automatico (ML), in particolare per i compiti di classificazione. Misura la percentuale di previsioni totali che un modello ha identificato correttamente. In parole povere, risponde alla domanda: "Di tutte le previsioni fatte, quante sono state effettivamente corrette?". Fornisce una panoramica semplice e di alto livello delle prestazioni complessive di un modello su un determinato set di dati.

Capire la precisione

L'accuratezza viene calcolata dividendo il numero di previsioni corrette (sia i veri positivi che i veri negativi) per il numero totale di previsioni effettuate. Per quanto intuitiva, la sola accuratezza può talvolta essere fuorviante, soprattutto quando si ha a che fare con insiemi di dati sbilanciati, ovvero situazioni in cui una classe è significativamente superiore alle altre. Ad esempio, se un set di dati contiene il 95% di email non spam e il 5% di email spam, un modello che predice semplicemente "non spam" per ogni email otterrebbe un'accuratezza del 95%, pur essendo inutile per identificare lo spam reale. Pertanto, è fondamentale considerare l'accuratezza insieme ad altre metriche di valutazione per avere un quadro completo delle prestazioni del modello. Puoi ottenere maggiori informazioni sulla valutazione dei modelli e sulle strategie di perfezionamento.

Precisione e altre metriche

È importante distinguere l'accuratezza dalle metriche correlate:

  • Precisione: Misura la percentuale di identificazioni positive effettivamente corrette. Risponde a: "Di tutti gli elementi previsti come positivi, quanti erano veramente positivi?". Una precisione elevata è fondamentale quando il costo di un falso positivo è alto.
  • Richiamo (sensibilità): Misura la percentuale di positivi effettivi identificati correttamente. Risponde a: "Di tutti i veri positivi, quanti ne ha identificati correttamente il modello?". Un'alta percentuale di richiamo è fondamentale quando la mancata identificazione di un caso positivo (falso negativo) è costosa.
  • F1-Score: La media armonica di Precision e Recall, che fornisce un unico punteggio che bilancia entrambe le metriche. È particolarmente utile quando si ha a che fare con classi sbilanciate.
  • Precisione media (mAP): Una metrica comune nelle attività di rilevamento degli oggetti, come quelle eseguite da Ultralytics YOLO di Ulralytics, che considera sia la correttezza della classificazione che l'accuratezza della localizzazione(Intersection over Union - IoU). La semplice precisione non è adatta in questo caso perché non tiene conto del posizionamento del rettangolo di selezione.

Queste metriche sono spesso derivate da una matrice di confusione, che fornisce una ripartizione dettagliata delle classificazioni corrette ed errate per ogni classe. La comprensione di queste metriche di performanceYOLO è essenziale.

Esempi e applicazioni del mondo reale

L'accuratezza è una metrica di base in molte applicazioni:

  1. Filtraggio delle e-mail di spam: Nel classificare le email come "spam" o "non spam", l'accuratezza indica la percentuale complessiva di email classificate correttamente. Tuttavia, a causa della percentuale tipicamente bassa di email di spam(un problema di sbilanciamento del set di dati), affidarsi esclusivamente all'accuratezza potrebbe essere ingannevole. Metriche come la precisione e il richiamo sono spesso più informative per garantire che lo spam venga catturato senza segnalare in modo errato le email legittime.
  2. Analisi di immagini mediche: Consideriamo un modello di intelligenza artificiale nel settore sanitario progettato per classificare le scansioni mediche come se mostrassero un tumore ("positivo") o meno ("negativo"). Sebbene l'accuratezza complessiva sia importante, il richiamo diventa fondamentale. Non vedere un tumore (un falso negativo) può avere gravi conseguenze, quindi è fondamentale che il modello identifichi il maggior numero possibile di casi di tumore reali, anche se ciò comporta una minore precisione (più falsi positivi che richiedono un'ulteriore revisione). Piattaforme come Ultralytics HUB possono aiutare a gestire il processo di formazione e valutazione di questi modelli.

Precisione nell'Ultralytics

All'interno dell'ecosistema Ultralytics , l'accuratezza è una delle tante metriche utilizzate per valutare le prestazioni dei modelli, soprattutto per le attività di classificazione delle immagini. Quando si confrontano i modelli, come YOLO11 vs YOLOv8, i benchmark di accuratezza su set di dati standard come ImageNet forniscono preziosi punti di confronto, insieme alla velocità di inferenza e al costo computazionale. Tuttavia, per le attività di rilevamento e segmentazione, vengono privilegiate metriche come la mAP, che riflettono meglio le sfide specifiche di queste attività.

Leggi tutto