I bias nell’intelligenza artificiale, una questione aperta e (ancora) poco discussa

Approfondimento
Afroditi Karidomati
bias

Se da un lato è ormai evidente come l’intelligenza artificiale costituisca sempre più parte integrante della nostra quotidianità, dall’altro l’attenzione si è di recente spostata sui cosiddetti “bias”, ossia i pregiudizi, che questa tecnologia può a volte presentare e sulle conseguenze che potrebbero derivare dal suo utilizzo.

Anche se l’intelligenza artificiale è un concetto piuttosto ampio, può essere approssimativamente definita come un insieme di tecnologie che cercano di riprodurre ciò che è in grado di fare la mente umana. Per fare ciò si basa su diversi algoritmi, alcuni dei quali hanno la capacità di eseguire ciò che viene chiamato apprendimento automatico (o Machine Learning), ovvero estrarre informazioni e schemi da dati grezzi.

L’intelligenza artificiale, nelle sue diverse forme e applicazioni, svolge un ruolo sempre più importante nella società: dal suo impiego in diversi sistemi e infrastrutture sociali, fino alla capacità di influenzare in parte le nostre abitudini e preferenze. L’aumento costante nell’utilizzo di queste applicazioni non solo comporta grandi vantaggi per molti settori economici in termini di precisione ed efficienza a livello decisionale, ma apre a nuove possibilità e opportunità nella vita quotidiana. Da quest’ultimo punto di vista, se da un lato l’intelligenza artificiale garantisce un accesso più ampio ed equo a una vasta gamma di beni e servizi, dall’altro sempre più voci richiamano l’attenzione sui possibili rischi di discriminazione che questa tecnologia porta con sé.

COSA SONO I “BIAS” NELL’INTELLIGENZA ARTIFICIALE

Come accennato, l’intelligenza artificiale si basa spesso su sistemi di apprendimento automatico. Questi ultimi tuttavia, proprio a causa della loro capacità di apprendere e scoprire correlazioni in un dato set di dati, comportano un certo rischio di discriminazione.
Negli ultimi anni è stato osservato come, anche in assenza di un esplicita richiesta o input volto a discriminare certi profili, i sistemi di apprendimento automatico hanno in certi casi condotto a risultati discriminatori, problema che viene definito come “automazione nella discriminazione”. Un ulteriore rischio che deriva dall’utilizzo di queste tecnologie è poi quello di riprodurre elementi di discriminazione in modalità non previsti da chi li ha progettati. Se fra gli esperti del settore la questione dei cosiddetti “AI Bias” è ormai discussa da tempo, più recentemente ha preso piede anche tra i consumatori e il pubblico in generale.

Spesso si sente dire che le macchine o i computer sono del tutto “imparziali”, ma ciò non è del tutto corretto. I sistemi di intelligenza artificiale non esistono nel vuoto: così come educazione, esperienze e cultura influenzano gli esseri umani e la loro percezione del mondo, queste applicazioni si basano su algoritmi che tendono a riflettere (almeno in parte) i preconcetti di chi li ha progettati.

Nell’analizzare i rischi legati all’utilizzo dell’intelligenza artificiale si parla spesso di “bias”[1], ossia di pregiudizi. Più nello specifico, quando si parla di “AI Bias” ci si riferisce alla situazione in cui i sistemi di analisi dei dati basati sui sistemi di Machine Learning mostrano atteggiamenti discriminatori nei confronti di determinati gruppi di persone. Solitamente questi pregiudizi riflettono opinioni e preconcetti socialmente diffusi come, ad esempio, quelli su razza, genere, sesso biologico, età e cultura.

Il pregiudizio può insinuarsi negli algoritmi in diversi modi. In primis, preconcetti, opinioni, aspettative culturali, sociali e istituzionali che preesistono in coloro che ideano e progettano il sistema possono essere trasmessi indirettamente alla tecnologia stessa. A seguire, i pregiudizi possono poi diffondersi per via tecnica, ossia a causa del limiti nel design di un dato sistema, o possono sorgere nel caso in cui una certa applicazione di intelligenza artificiale venga utilizzata in contesti imprevisti o da un pubblico che non è considerato nella progettazione iniziale del software. Ci sono poi i cosiddetti “bias di incertezza”, un tipo di bias che distorce i processi algoritmici verso risultati che riproducono più strettamente i campioni più grandi, ignorando i dati riguardanti popolazioni sottorappresentate nel dataset.

ESEMPI DI “BIASED AI”

La questione non interessa solo gli esperti del settore, bensì costituisce un problema reale con risvolti in diversi aspetti della vita quotidiana, dalla sanità alla giustizia, passando per l’istruzione, fino al mondo del lavoro.

Uno dei casi più emblematici riguarda OPTUM, un sistema utilizzato negli ospedali statunitensi per prevedere quali pazienti avrebbero potuto avere necessità di cure mediche ulteriori. Questo applicativo tuttavia è stato oggetto di un ampio dibattito a seguito della scoperta di alcune teorie secondo cui l’algoritmo avrebbe discriminato i pazienti neri rispetto a quelli bianchi. Sebbene il colore della pelle non rientrasse tra le variabili considerate, un dato in parte correlato era la cronologia dei costi sanitari: per vari e diversi motivi, i pazienti di colore risultavano aver sostenuto in media spese sanitarie inferiori rispetto ai bianchi con le stesse condizioni. Ciò che rileva è che ove questo errore nel modello di intelligenza artificiale non fosse stato identificato, il sistema sanitario avrebbe continuato a discriminare gravemente e ingiustamente una grossa parte della popolazione[2].

Un altro esempio di come l’uso dell’intelligenza artificiale abbia fatto discutere a causa della propria tendenza discriminatoria è il caso di COMPAS, acronimo che sta per Correctional Offender Management Profiling for Alternative Sanctions che rappresenta l’algoritmo utilizzato in alcuni sistemi giudiziari statunitensi per prevedere la probabilità di recidiva di un imputato. Il problema di COMPAS è che questo software presentava un forte pregiudizio che portava al doppio di falsi positivi per recidiva in caso di trasgressori neri (con una percentuale di circa il 45%) rispetto a quanto accadeva in caso di imputati caucasici (ove invece il sistema registrava una percentuale del 23%). Come altri casi, anche il bias di COMPAS era dovuto a diversi elementi, quali i dati utilizzati, il modello scelto e il processo di creazione dell’algoritmo stesso[3].

Va poi ricordato come negli ultimi anni, sempre più procedimenti di ammissione presso università, college o altri corsi di studio vedano l’utilizzo di programmi che per interagire o valutare i potenziali studenti si basano su applicazioni legate all’intelligenza artificiale. Se da un lato l’utilizzo di questa tecnologia presenta molti vantaggi, come la possibilità di valutare un maggior numero di candidati in modo oggettivo e quindi garantire un procedimento più equo, dall’altro comporta anche il rischio che certi studenti possano essere penalizzati a seconda di come è progettato il singolo sistema. Nel 2020 ad esempio, il dipartimento di informatica dell’Università del Texas ad Austin, ha abbandonato un programma di apprendimento automatico che aveva utilizzato fino a quel momento per valutare i candidati che presentavano domanda per il dottorato di ricerca. Il motivo di questa scelta è dovuto ancora una volta alla rilevazione dei “bias” nel sistema utilizzato. In questo caso, esperti e critici hanno dimostrato come il modello scelto utilizzava un database che si basava sulle candidature presentate con successo negli anni passati, ma queste ultime riflettevano solo una parte della popolazione, il che finiva col discriminare i candidati con un estrazione diversa.

POSSIBILI SOLUZIONI E “BEST PRACTICES

Se la questione dei pregiudizi connessi a questa tecnologia resta un problema ancora aperto, va ricordato che vi sono diverse soluzioni per ridurre le conseguenze dannose a esso connesse. Un buon primo passo è ad esempio la rimozione di nomi e pronomi di genere (Anonymization and Direct Calibration) dai documenti che vengono poi esaminati dal sistema, così come si può pensare di escludere chiari riferimenti di appartenenza a minoranze o classi protette.

Un’altra soluzione, soprattutto ove si tratti di applicazioni che si basano sul deep learning, è poi utilizzare questa stessa tecnologia per trovare le distorsioni all’interno del sistema, un approccio noto come Adversarial Learning (o “apprendimento contraddittorio”). Infine, sotto molti aspetti uno dei modi migliori per ridurre la distorsione nei modelli di intelligenza artificiale è diminuire i pregiudizi che emergono dai set di dati su cui si basano queste applicazioni. Nota come “data cleaning”, questa soluzione si basa su un concetto semplice: ove noi essere umani riduciamo per primi i comportamenti discriminatori, anche i sistemi algoritmici che utilizziamo finiranno per averne meno.

Il problema dei “bias” è certamente centrale se si vuole raggiungere un modello di intelligenza artificiale affidabile. Tuttavia, il procedimento relativo alla rimozione dei pregiudizi (procedimento in gergo spesso definito come “debiasing”) non va visto come un unico atto, bensì come un impegno continuo verso l’eccellenza. Ciò significa che lo scopo di esperti e programmatori (ma anche dei consumatori) deve essere quello di cercare attivamente segni di pregiudizi, costruire dei processi che siano in grado di revisionare e considerare casi particolari, e allo stesso tempo mantenersi aggiornati sugli avanzamenti nel campo dell’apprendimento automatico.

Allo stato attuale dell’arte, diverse voci affermano che i sistemi cosiddetti “ibridi”, ossia che utilizzano sia il giudizio umano che l’intelligenza artificiale, tendono a ridurre al massimo la possibilità di pregiudizi e quindi a garantire i risultati migliori. Se da un lato è vero che gli algoritmi possono portare maggiore rigore e ripetibilità a un processo e sono in grado di cercare e rimuovere i pregiudizi dovuti all’errore umano, dall’altro noi esseri umani siamo capaci di valutare le situazioni in un contesto più ampio, aggiungendo consapevolezza, abilità nella ricerca e comprensione del processo decisionale.

[1] Interessante a tal proposito la definizione di “bias” rinvenibile nel white-paper di Lexalytics secondo cui: “A bias is a prejudice in favor of or against one thing, person, or group compared with another, usually in a way considered to be unfair.”

[2] A seguito di questa scoperta, programmatori e ricercatori hanno poi lavorato a stretto contatto e sono riusciti a ridurre il livello di bias dell’80%. Per maggiori informazioni si veda: Racial bias in a medical algorithm favors white patients over sicker black patients, Washington Post (2019).

[3] Da notare cheCOMPAS non costituisce un unicum nel sistema statunitense, che anzi utilizza in modo diffuso gli strumenti decisionali automatizzati a livello di procedimenti penali sia direttamente, che indirettamente, ossia alimentando il ciclo della giustizia penale negli Stati Uniti. A tal proposito si veda: AI in the Criminal Justice System

 

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.