Glossario

Bias algoritmico

Scopri i pregiudizi algoritmici, le loro fonti e gli esempi reali. Impara le strategie per mitigare i pregiudizi e costruire sistemi di intelligenza artificiale equi ed etici.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

I pregiudizi algoritmici si riferiscono a errori sistematici e ripetibili in un sistema di intelligenza artificiale (AI) che portano a risultati ingiusti o discriminatori. A differenza dei pregiudizi che derivano esclusivamente da dati errati, i pregiudizi algoritmici derivano dalla progettazione, dall'implementazione o dall'applicazione dell'algoritmo stesso. Questo può accadere anche quando i dati di formazione in ingresso sembrano equilibrati. Si tratta di un problema critico nell'apprendimento automatico (ML) e in campi come la computer vision (CV), in quanto può compromettere l'affidabilità e l'equità dei sistemi di IA, con ripercussioni su tutto, dalle raccomandazioni sui prodotti alle decisioni critiche in ambito finanziario e sanitario. Affrontare questo tipo di pregiudizi è essenziale per costruire un'IA affidabile, come evidenziato da organizzazioni di ricerca come il NIST.

Fonti di distorsione algoritmica

Anche se spesso si intrecciano con le questioni relative ai dati, i pregiudizi algoritmici derivano specificamente dalla meccanica dell'algoritmo:

  • Scelte progettuali: Le decisioni prese durante lo sviluppo dell'algoritmo, come la scelta di caratteristiche specifiche o dell'algoritmo di ottimizzazione utilizzato, possono inavvertitamente introdurre pregiudizi. Ad esempio, ottimizzando esclusivamente l'accuratezza, un modello potrebbe avere scarse prestazioni su gruppi di minoranza che rappresentano casi limite.
  • Ingegneria e selezione delle caratteristiche: Il processo di selezione, trasformazione o creazione delle caratteristiche(feature engineering) può incorporare pregiudizi. Un algoritmo potrebbe apprendere correlazioni che riflettono i pregiudizi della società presenti indirettamente nelle caratteristiche.
  • Variabili proxy: Gli algoritmi possono utilizzare variabili apparentemente neutre (come il codice postale o la cronologia degli acquisti) come proxy per attributi sensibili (come la razza o il reddito). L'uso di variabili proxy può portare a risultati discriminatori anche in assenza di dati sensibili espliciti.
  • Cicli di feedback: Nei sistemi che imparano nel tempo, i pregiudizi iniziali dell'algoritmo possono essere rafforzati quando i risultati distorti del sistema influenzano la futura raccolta di dati o il comportamento dell'utente.

Esempi del mondo reale

I pregiudizi algoritmici possono manifestarsi in diverse applicazioni:

  1. Strumenti di assunzione: I sistemi di intelligenza artificiale progettati per vagliare i curriculum potrebbero apprendere modelli dai dati storici delle assunzioni. Se le pratiche passate hanno favorito alcune categorie demografiche, l'algoritmo potrebbe perpetuare questo pregiudizio, penalizzando i candidati qualificati appartenenti a gruppi sottorappresentati, come è accaduto notoriamente con uno strumento sperimentale di Amazon.
  2. Servizi finanziari: Gli algoritmi utilizzati per il credit scoring o per l'approvazione di prestiti potrebbero negare in modo sproporzionato le richieste di individui appartenenti a determinati quartieri o gruppi demografici, anche se le caratteristiche protette sono escluse. Questo può accadere se l'algoritmo identifica correlazioni tra fattori apparentemente neutri (come i modelli di navigazione in internet o i rivenditori specifici frequentati) e il rischio di credito che si allineano con i pregiudizi della società. Le preoccupazioni per i pregiudizi algoritmici nella finanza sono in aumento.

Bias algoritmico e concetti correlati

È importante distinguere il pregiudizio algoritmico dai termini correlati:

  • Bias nell'IA: si tratta di un termine ampio che comprende tutte le forme di scorrettezza sistematica nei sistemi di IA. Il pregiudizio algoritmico è una fonte specifica di pregiudizio nell'IA, insieme ad altre come il Dataset Bias.
  • Bias del set di dati: si riferisce ai bias derivanti dai dati utilizzati per addestrare il modello (ad esempio, campioni non rappresentativi, annotazioni distorte). Se da un lato i bias del dataset possono causare o amplificare i bias algoritmici, dall'altro questi ultimi possono sorgere indipendentemente dalla progettazione dell'algoritmo, anche in presenza di dati perfettamente rappresentativi. Comprendere l'interazione tra pregiudizi dell'intelligenza artificiale e pregiudizi del set di dati è fondamentale.
  • Bias-Variance Tradeoff: si tratta di un concetto fondamentale nel ML che riguarda la complessità del modello e i tipi di errore. In questo contesto, il termine "bias" si riferisce alle ipotesi semplificative fatte da un modello che portano a errori sistematici(underfitting), non ai bias legati alla società o alla correttezza.

Strategie di mitigazione

Affrontare i pregiudizi algoritmici richiede un approccio proattivo e sfaccettato durante tutto il ciclo di vita dell'IA:

  • Metriche di equità: Incorporare le metriche di equità nel processo di formazione e convalida dei modelli, accanto alle metriche di performance tradizionali come l'accuratezza.
  • Verifica degli algoritmi: Controlla regolarmente gli algoritmi per verificare che non ci siano risultati distorti in diversi sottogruppi. Strumenti come AI Fairness 360 e Fairlearn toolkit possono aiutare a rilevare e mitigare i pregiudizi.
  • Tecniche di mitigazione dei pregiudizi: Impiega tecniche progettate per regolare gli algoritmi, come la riponderazione dei punti di dati, la modifica dei vincoli di apprendimento o la post-elaborazione dei risultati del modello per garantire risultati più equi.
  • Explainable AI (XAI): Utilizzare i metodi XAI per capire perché un algoritmo prende determinate decisioni, aiutando a identificare i pregiudizi nascosti nella sua logica. Migliorare la trasparenza nell'IA è fondamentale.
  • Team diversi e test: Coinvolgi team diversi nel processo di sviluppo e conduci test approfonditi con gruppi di utenti rappresentativi per scoprire potenziali pregiudizi.
  • Consapevolezza delle normative: Rimani informato sulle normative in evoluzione, come la legge europea sull'IA, che include disposizioni relative alla parzialità e all'equità.
  • Monitoraggio continuo dei modelli: Monitora i modelli distribuiti per verificare il degrado delle prestazioni o le distorsioni emergenti nel corso del tempo.

Comprendendo le sfumature delle distorsioni algoritmiche e lavorando attivamente per mitigarle attraverso una progettazione attenta, test rigorosi e l'adesione ai principi di equità nell'IA e di etica dell'IA, gli sviluppatori possono creare applicazioni di IA più affidabili, eque e vantaggiose. Organizzazioni come la Partnership on AI e la Algorithmic Justice League sostengono lo sviluppo responsabile dell'IA. Piattaforme come Ultralytics HUB e modelli come Ultralytics YOLO forniscono framework che supportano un attento sviluppo e valutazione dei modelli, tenendo conto di fattori come la privacy dei dati e contribuendo alla creazione di sistemi più equi. La Conferenza ACM sull'equità, la responsabilità e la trasparenza (FAccT) è una delle sedi principali per la ricerca in questo settore.

Leggi tutto