Glossario

I pregiudizi nell'IA

Scopri come identificare, mitigare e prevenire i pregiudizi nei sistemi di IA con strategie, strumenti ed esempi reali di sviluppo etico dell'IA.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

I pregiudizi nell'IA si riferiscono a errori sistematici nell'output dei modelli di apprendimento automatico che favoriscono alcuni gruppi rispetto ad altri, portando a risultati ingiusti o inaccurati. Questi pregiudizi spesso derivano dai dati utilizzati per addestrare i modelli, che riflettono pregiudizi sociali esistenti o limitazioni nella raccolta dei dati. Quando i sistemi di intelligenza artificiale vengono addestrati su questi dati, possono inavvertitamente apprendere e perpetuare questi pregiudizi, dando luogo a previsioni discriminatorie o distorte. Affrontare i pregiudizi è fondamentale per sviluppare sistemi di IA etici, affidabili ed equi.

Tipi di pregiudizio

Nei sistemi di intelligenza artificiale possono manifestarsi diversi tipi di pregiudizi. I pregiudizi algoritmici si verificano quando l'algoritmo stesso introduce errori sistematici, spesso dovuti a una progettazione o a presupposti errati. I pregiudizi campionari si verificano quando i dati di addestramento non rappresentano in modo accurato la popolazione, portando a modelli che hanno scarse prestazioni su gruppi sottorappresentati. Ad esempio, un sistema di riconoscimento facciale addestrato principalmente su immagini di un'etnia può avere un'accuratezza inferiore per altre etnie. I pregiudizi si verificano quando i dati di addestramento riflettono gli stereotipi e i pregiudizi esistenti, facendo sì che l'IA perpetui tali pregiudizi. Un esempio è uno strumento di assunzione addestrato sulla base di dati storici di assunzione che hanno favorito alcuni dati demografici, portando a raccomandazioni di assunzione distorte. I pregiudizi di misura si verificano quando i dati raccolti sono sistematicamente imprecisi o incoerenti, influenzando la capacità del modello di fare previsioni accurate. La comprensione di questi tipi di pregiudizi è essenziale per identificare e mitigare il loro impatto sui sistemi di intelligenza artificiale.

Esempi di pregiudizi nell'IA

I pregiudizi nell'IA possono avere conseguenze significative nel mondo reale e interessare diversi settori. Un esempio significativo è quello della tecnologia di riconoscimento facciale. Alcuni studi hanno dimostrato che alcuni sistemi di riconoscimento facciale presentano tassi di errore più elevati per gli individui con la carnagione più scura o di determinate origini etniche. Questo può portare a errori di identificazione e ad accuse errate, soprattutto nelle applicazioni delle forze dell'ordine. Un altro esempio è quello dell'elaborazione del linguaggio naturale (NLP), dove i modelli linguistici possono produrre contenuti distorti o offensivi a causa dei dati testuali distorti su cui sono stati addestrati. Ad esempio, un modello linguistico potrebbe associare determinate professioni a determinati generi sulla base di pregiudizi storici presenti nei dati di addestramento. Questi esempi evidenziano l'importanza di affrontare i pregiudizi per garantire l'equità e l'accuratezza delle applicazioni di IA. Scopri di più sui pregiudizi algoritmici qui.

Strategie di mitigazione dei pregiudizi

Per mitigare i pregiudizi nei sistemi di intelligenza artificiale si possono utilizzare diverse strategie. Un approccio consiste nel garantire dati di formazione diversificati e rappresentativi. Ciò implica la raccolta di dati che riflettano accuratamente la popolazione e che includano un'ampia gamma di dati demografici e caratteristiche. Un'altra strategia è l'equità algoritmica, che si concentra sulla progettazione di algoritmi che tengano esplicitamente conto dell'equità e mirino a minimizzare i risultati discriminatori. Tecniche come la pre-elaborazione, l'in-elaborazione e la post-elaborazione possono essere utilizzate per regolare i dati o il modello per ridurre i pregiudizi. La pre-elaborazione consiste nel modificare i dati di formazione per eliminare i pregiudizi, mentre l'in-elaborazione regola l'algoritmo di apprendimento per promuovere l'equità. La post-elaborazione prevede la modifica dei risultati del modello per correggere i pregiudizi. Inoltre, la verifica e il monitoraggio regolari dei sistemi di IA possono aiutare a identificare e risolvere i pregiudizi che possono emergere nel tempo. Implementando queste strategie, gli sviluppatori possono lavorare per creare sistemi di IA più equi e imparziali. Scopri di più sull'equità nell'IA qui.

Strumenti e tecniche per il rilevamento dei pregiudizi

Sono disponibili diversi strumenti e tecniche per aiutare a individuare e risolvere i pregiudizi nei sistemi di intelligenza artificiale. Uno strumento molto diffuso è Fairlearn, un pacchetto open-source di Python che fornisce algoritmi per valutare e mitigare i pregiudizi nei modelli di apprendimento automatico. Un altro strumento è AI Fairness 360 di IBM, che offre una serie completa di metriche e algoritmi per individuare e attenuare i pregiudizi nei dataset e nei modelli. Questi strumenti possono essere integrati nella pipeline di sviluppo per aiutare gli sviluppatori a identificare e correggere i pregiudizi durante il processo di formazione. Inoltre, tecniche come la counterfactual fairness e l'adversarial debiasing possono essere utilizzate per valutare e migliorare la correttezza dei modelli di IA. L'equità controfattuale consiste nel valutare se la previsione di un modello cambierebbe se un attributo sensibile fosse diverso, mentre l'adversarial debiasing utilizza la formazione avversaria per ridurre la dipendenza del modello da caratteristiche distorte. Utilizzando questi strumenti e queste tecniche, gli sviluppatori possono migliorare l'equità e l'affidabilità dei loro sistemi di intelligenza artificiale.

Bias nell'intelligenza artificiale, bias dei dati e bias algoritmici

Sebbene i termini "bias nell'IA", "bias dei dati" e "bias algoritmico" siano correlati, si riferiscono ad aspetti diversi del problema. Bias nell'IA è un termine ampio che comprende qualsiasi errore sistematico nei sistemi di IA che porta a risultati ingiusti. La distorsione dei dati si riferisce in particolare alle distorsioni presenti nei dati di addestramento, che possono derivare da varie fonti come distorsioni storiche, campionamenti distorti o misurazioni imprecise. Quando i modelli di intelligenza artificiale vengono addestrati su dati distorti, è probabile che imparino e perpetuino questi pregiudizi. I pregiudizi algoritmici, invece, si riferiscono ai pregiudizi introdotti dall'algoritmo stesso, indipendentemente dai dati. Ciò può avvenire a causa di una progettazione errata, di ipotesi sbagliate o di criteri di ottimizzazione inadeguati. Sebbene i pregiudizi dei dati e quelli degli algoritmi siano distinti, spesso interagiscono e si rafforzano a vicenda. Ad esempio, un set di dati distorto può portare allo sviluppo di un algoritmo distorto e un algoritmo distorto può amplificare ulteriormente i pregiudizi presenti nei dati. Affrontare i pregiudizi nell'IA richiede un approccio completo che consideri sia i dati che gli aspetti algoritmici. Si tratta di un'attenta raccolta e pre-elaborazione dei dati, di una progettazione ponderata degli algoritmi e di un monitoraggio e una valutazione continui dei sistemi di IA per garantire l'equità e l'accuratezza.

Leggi tutto