Glossario

I pregiudizi nell'IA

Scopri come identificare, mitigare e prevenire i pregiudizi nei sistemi di IA con strategie, strumenti ed esempi reali di sviluppo etico dell'IA.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

I pregiudizi nell'Intelligenza Artificiale (IA) si riferiscono a errori sistematici e ripetibili in un sistema di IA che portano a risultati ingiusti, privilegiando un gruppo arbitrario di utenti rispetto ad altri. Si verifica quando un modello di IA riflette i valori impliciti o i pregiudizi presenti nei dati su cui è stato addestrato, negli algoritmi utilizzati o nelle decisioni prese dagli esseri umani coinvolti nel suo sviluppo. Affrontare i pregiudizi dell'IA è fondamentale per garantire lo sviluppo e l'impiego etico delle tecnologie di IA, in quanto influisce sulle prestazioni del modello, sull'affidabilità e sulla fiducia del pubblico, soprattutto in applicazioni critiche come la computer vision (CV).

Fonti di pregiudizi Ai

I pregiudizi sull'IA non derivano in genere dall'IA stessa, ma piuttosto dai dati e dai processi utilizzati per crearla. Le fonti principali sono:

  • Bias del set di dati: si tratta di un fattore primario che si verifica quando i dati di addestramento non sono rappresentativi degli scenari del mondo reale o dei dati demografici che l'IA incontrerà. Ciò può comportare la sottorappresentazione di alcuni gruppi, metodi di raccolta dei dati distorti o errori nell'etichettatura dei dati. Per saperne di più sull'impatto dei dataset, consulta il nostro blog post " Capire i pregiudizi dell'IA e i pregiudizi dei dataset".
  • Bias algoritmico: i bias possono essere introdotti dalla scelta dell'algoritmo o dal modo in cui è stato progettato. Alcuni algoritmi potrebbero intrinsecamente favorire modelli o risultati specifici, portando a previsioni distorte anche con dati equilibrati.
  • Pregiudizi umani: i pregiudizi consci o inconsci degli sviluppatori possono influenzare la selezione dei dati, l'ingegnerizzazione delle caratteristiche, le metriche di valutazione dei modelli e le decisioni di implementazione, incorporando l'iniquità nel sistema. Per un approfondimento sulle considerazioni di equità, vedi Etica dell'intelligenza artificiale.

Esempi del mondo reale

I pregiudizi nell'IA possono manifestarsi in diverse applicazioni e portare a conseguenze significative:

  1. Sistemi diriconoscimento facciale: I primi modelli di riconoscimento facciale spesso mostravano un'accuratezza inferiore per gli individui di carnagione più scura o per le donne, soprattutto perché i dataset di addestramento presentavano prevalentemente maschi dalla pelle più chiara. Questa disparità solleva preoccupazioni sull'equità in applicazioni come la sicurezza e la verifica dell'identità. Studi condotti da organizzazioni come il NIST hanno documentato queste differenze di prestazioni.
  2. L'intelligenza artificiale nell'assistenza sanitaria: I modelli di IA utilizzati per l'analisi delle immagini mediche potrebbero funzionare meno efficacemente per i gruppi demografici sottorappresentati nei dati di addestramento. Ad esempio, un algoritmo di rilevamento del cancro della pelle addestrato principalmente sulla pelle chiara potrebbe non riuscire a identificare con precisione il melanoma sulla pelle più scura, ritardando potenzialmente la diagnosi e il trattamento.

Distinguere i pregiudizi nelle Ai dai concetti correlati

È importante distinguere Bias in AI da termini simili:

  • Bias del dataset: si riferisce in particolare a problemi relativi ai dati utilizzati per l'addestramento (ad esempio, la mancanza di diversità). È una delle principali cause di Bias nell'IA, che descrive l'iniquità sistematica che ne deriva nel comportamento del modello.
  • Bias algoritmico: si concentra sui bias derivanti dalla struttura del modello o dal processo di apprendimento stesso, un'altra potenziale causa del fenomeno più ampio dei bias nell'IA.
  • Bias-Variance Tradeoff: si tratta di un concetto fondamentale nell'apprendimento automatico (ML) che riguarda l'errore del modello. In questo caso, il termine "bias" si riferisce all'errore derivante da assunzioni errate nell'algoritmo di apprendimento (che porta a un underfitting), distinto dalle implicazioni sociali o etiche del bias nell'IA.

Affrontare i pregiudizi Ai

Mitigare i pregiudizi dell'IA richiede un approccio multiforme durante tutto il ciclo di vita dello sviluppo dell'IA:

  • Dati diversificati e rappresentativi: La raccolta di set di dati diversificati e di alta qualità, come quelli presenti nella raccoltaUltralytics Datasets, è fondamentale. Anche tecniche come l'aumento dei dati possono aiutare a migliorare la rappresentazione.
  • Metriche di equità e audit: È essenziale valutare i modelli non solo per l'accuratezza complessiva, ma anche per le prestazioni in diversi sottogruppi utilizzando metriche di equità. Stanno emergendo strumenti e strutture che aiutano a verificare la presenza di pregiudizi nei modelli.
  • Explainable AI (XAI): Capire perché un modello fa determinate previsioni può aiutare a identificare e correggere i comportamenti distorti.
  • Team inclusivi: I team di sviluppo diversificati hanno meno probabilità di trascurare potenziali pregiudizi.

Piattaforme come Ultralytics HUB offrono strumenti per la formazione e la gestione di modelli personalizzati, consentendo agli sviluppatori di curare con attenzione i set di dati e di monitorare i dati di Ultralytics . Ultralytics YOLO le prestazioni dei modelli, contribuendo allo sviluppo di sistemi di IA più equi. Creare consapevolezza e incorporare i principi di equità nell'IA è fondamentale per creare un'IA che porti benefici a tutti in modo equo.

Leggi tutto