Intelligenza artificiale, ecco quali sono i principi etici in campo sanitario secondo l’Oms

Articolo
Maria Vittoria Di Sangro

Se impiegata con saggezza, soprattutto in ambito sanitario, l’intelligenza artificiale ha il potenziale per consentire ai pazienti e alle comunità di assumere il controllo della propria assistenza sanitaria e comprendere meglio le proprie esigenze in continua evoluzione. Tuttavia, com’è ovvio che sia, occorre prestare attenzione affinché vengano adottate in materia misure appropriate. Inoltre, uno sviluppo adeguato ed etico dell’intelligenza artificiale potrebbe consentire ai Paesi poveri e alle comunità rurali, dove i pazienti spesso hanno difficoltà a mettersi in contatto con gli operatori sanitari o i professionisti medici, di colmare le lacune nell’accesso ai servizi sanitari.

Sono solo alcune delle riflessioni contenute nel nuovo rapporto dell’Organizzazione mondiale della sanità (Oms), intitolato “Etica e governance dell’intelligenza artificiale per la salute”. Una vera e propria guida per gli addetti ai lavori e i decisori pubblici, frutto di 2 anni di consultazioni tenute da un panel di esperti internazionali.

Come tutte le nuove tecnologie, l’intelligenza artificiale ha un enorme potenziale per migliorare la salute di milioni di persone in tutto il mondo, ma come tutte le tecnologie può anche essere utilizzata in modo improprio e causare danni“, ha affermato Tedros Adhanom Ghebreyesus, direttore generale dell’Oms. Che ha poi continuato: “Questo nuovo importante rapporto fornisce una guida preziosa per i paesi su come massimizzare i benefici dell’intelligenza artificiale, riducendo al minimo i suoi rischi ed evitando le sue insidie“.

Proprio durante il Covid-19 sono emerse numerose applicazioni innovative per tentare di rispondere alle nuove esigenze dettate dalla pandemia. Le stesse novità hanno però rivelato come molte delle funzionalità già sviluppate non fossero effettivamente efficaci. Come emerge anche nel report, “diverse applicazioni hanno sollevato preoccupazioni etiche in relazione alla violazione dei diritti per la privacy, alla salute e all’iniquità sociale e alle condizioni necessarie per la fiducia e gli usi legittimi delle applicazioni ad alta intensità di dati”.

Nel rapporto dell’Organizzazione mondiale della sanità, sono stati individuati numerosi principi etici in qualità di linee guida per l’applicazione dell’intelligenza artificiale nel comparto sanitario. Dalla salvaguardia dell’autonomia umana alla promozione del benessere e della sicurezza delle persone nell’interesse pubblico. Dalla trasparenza alla chiarezza e all’intelligibilità, passando per la determinazione chiara delle responsabilità, l’inclusività e l’equità e la promozione di un’intelligenza artificiale reattiva e sostenibile .

SALVAGUARDIA DELL’AUTONOMIA UMANA

L’uso dell’intelligenza artificiale può portare a situazioni in cui il potere decisionale rischia di essere trasferito alle macchine. Il principio di autonomia richiede che l’uso di queste tecnologie o di altri sistemi computazionali non pregiudichi la volontà decisionale umana. Nel caso specifico dell’assistenza sanitaria, gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche. Il che comporta pure l’obbligo di garantire che i medici o i professionisti del settore dispongano delle informazioni necessarie per fare un uso sicuro ed efficace delle applicazioni dotate di intelligenza artificiale e che le persone comprendano il ruolo che tali sistemi svolgono nelle loro cure. Inoltre, la protezione della privacy e l’ottenimento di un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati rivestono un ruolo cruciale.

PROMOZIONE DEL BENESSERE E DELLA SICUREZZA DELLE PERSONE NELL’INTERESSE PUBBLICO

Secondo l’Oms, le tecnologie dotate di intelligenza artificiale non dovrebbero mai intaccare il benessere delle persone. Chi le progetta, in base a quanto diffuso tramite le linee guida, dovrebbe soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia, ben definendone casi d’uso e indicazioni. Dovrebbero essere, inoltre, disponibili procedure pratiche di controllo della qualità e del miglioramento delle performance nell’uso di queste nuove applicazioni nel tempo.

TRASPARENZA, CHIAREZZA E INTELLEGIBILITÀ

Le tecnologie di intelligenza artificiale dovrebbero essere intelligibili o, quantomeno, comprensibili sia per gli sviluppatori, sia per professionisti medici, i pazienti, gli utenti e le autorità di regolamentazione. Sotto questo profilo, il report sottolinea come si debba migliorare la trasparenza dell’intelligenza artificiale e renderla spiegabile e comprensibile anche ai non addetti ai lavori. Sempre secondo gli esperti dell’Oms, “la trasparenza richiede che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dell’implementazione di una tecnologia di intelligenza artificiale e che tali informazioni facilitino una consultazione pubblica e un dibattito significativi su come la tecnologia è progettata e su come dovrebbe o non dovrebbe essere utilizzata”. Inoltre, le tecnologie dovrebbero essere comprensibili per coloro a cui vengono spiegate, che siano medici, infermieri o pazienti.

DETERMINAZIONE CHIARA DELLE RESPONSABILITÀ

È necessario specificare alle persone in modo chiaro e trasparente quali sono i compiti che i sistemi possono eseguire e le condizioni in cui si possono ottenere le prestazioni desiderate. Sebbene le tecnologie di intelligenza artificiale svolgano mansioni specifiche, è responsabilità di tutti gli attori interessati, ma soprattutto delle istituzioni, garantire che queste siano utilizzate in condizioni appropriate e da persone adeguatamente formate. La responsabilità può essere assicurata dall’applicazione della “garanzia umana“, che implica l’inclusione della valutazione da parte di pazienti e medici nel loro sviluppo e nella loro implementazione. Inoltre, richiede anche l’applicazione di principi normativi a monte e a valle dell’algoritmo, stabilendo quali sono i punti di supervisione umana. Se qualcosa va storto, deve esserci una chiara e ben prestabilita responsabilità legale. A tal proposito è importante che siano disponibili meccanismi appropriati di tutela degli individui (o dei gruppi) che potrebbero essere influenzati negativamente dalle decisioni basate sugli algoritmi.

INCLUSIVITÀ ED EQUITÀ

L’inclusività richiede che l’intelligenza artificiale per la salute sia progettata per incoraggiare un uso e un accesso più ampi ed equi, indipendentemente da età, sesso, genere, reddito, razza, etnia o orientamento sessuale. Come qualsiasi altra tecnologia, dovrebbe essere condivisa il più ampiamente possibile, senza codificare pregiudizi a svantaggio di gruppi identificabili, in particolare di quelli già emarginati. Secondo le linee guida Oms, “il pregiudizio è una minaccia all’inclusione e all’equità, poiché può comportare un allontanamento, spesso arbitrario, dalla parità di trattamento“. Le tecnologie di intelligenza artificiale dovrebbero ridurre al minimo le inevitabili disparità di potere che sorgono tra i fornitori di servizi sanitari e i pazienti, tra responsabili politici e persone e tra le aziende che implementano queste tecnologie e i governi che le utilizzano o fanno affidamento su di esse. Ma c’è di più. Il loro utilizzo dovrebbe essere monitorato e valutato per identificare effetti sproporzionati su gruppi specifici di persone. Nessuna tecnologia dovrebbe sostenere o peggiorare le forme esistenti di pregiudizio e discriminazione.

PROMOZIONE DI UN’INTELLIGENZA ARTIFICIALE REATTIVA E SOSTENIBILE

La reattività della tecnologia richiede che progettisti, sviluppatori e utenti valutino in modo continuo, sistematico e trasparente le applicazioni dell’intelligenza artificiale durante il loro utilizzo, in modo da determinare se risponde in modo adeguato e appropriato alle aspettative e alle esigenze. La reattività presuppone inoltre che le tecnologie siano coerenti con una più ampia promozione della sostenibilità dei sistemi sanitari, degli ambienti e dei luoghi di lavoro. I sistemi dovrebbero essere progettati per ridurre al minimo le loro conseguenze ambientali e aumentare l’efficienza energetica. Cioè, “l’uso dell’intelligenza artificiale dovrebbe essere coerente con gli sforzi globali per ridurre l’impatto degli esseri umani sull’ambiente, sugli ecosistemi e sul clima del nostro pianeta“. La sostenibilità richiede anche che i governi e le aziende affrontino le interruzioni previste sul posto di lavoro, compresa la formazione degli operatori sanitari affinché si adattino all’uso dei sistemi di intelligenza artificiale e alle potenziali perdite di posti di lavoro dovute all’uso di sistemi automatizzati.

Se l’intelligenza artificiale sarà in grado di promuovere gli interessi dei pazienti e delle comunità, dipende soprattutto da uno sforzo collettivo per progettare (e attuare) leggi e politiche eticamente difendibili e tecnologie che le rispettino e ne condividano i valori. Nel caso in cui i principi etici e gli obblighi in materia di diritti umani non dovessero essere la priorità per chi finanzia, progetta, regola o semplicemente utilizza le tecnologie di intelligenza artificiale per la salute, la società intera incorrerebbe in potenziali gravi conseguenze negative. Sicuramente, l’Organizzazione mondiale della sanità ha messo a disposizione linee guida etiche che potranno coadiuvare questo processo. Le opportunità e le sfide sono quindi indissolubilmente legate.