Il regolamento Ue sull’intelligenza artificiale e i diritti fondamentali dei cittadini


Articolo
Maria Rosaria Della Porta

Lo scorso 21 aprile la Commissione europea ha approvato la proposta di Regolamento sull’intelligenza artificiale, che di fatto costituisce il primo quadro giuridico europeo sul tema.

La finalità principale delle nuove norme, che saranno uniformi su tutto il territorio europeo, è quella di contrastare gli utilizzi dell’Ia che possano risultare lesivi per i diritti fondamentali e la sicurezza dei cittadini europei e creare le condizioni affinché l’intelligenza artificiale sia realmente affidabile. Nella stesura del regolamento la Commissione Ue ha seguito un approccio basato sul rischio (inaccettabile, alto e limitato).

Nello specifico i sistemi che presentano un rischio inaccettabile, in quanto in contrasto con gli stessi valori fondanti dell’Unione, saranno vietati. Si tratta, in particolare, di applicazioni che attraverso tecniche subliminali possono manipolare le persone o prendere di mira le vulnerabilità dei soggetti più fragili come bambini o persone con disabilità.

Inoltre, verranno banditi anche i sistemi di social scoring ossia quelli che valutano o classificano l’affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o caratteristiche o della personalità, note o previste, mediante un punteggio sociale determinando di fatto un trattamento pregiudizievole nei confronti di tali persone.

Il Regolamento opera poi una stretta anche sull’identificazione biometrica (o riconoscimento facciale), a meno che l’uso di tali sistemi non sia strettamente necessario per uno dei seguenti motivi: la ricerca mirata di potenziali vittime di crimini, inclusi i bambini scomparsi, la prevenzione di specifiche e imminenti minacce alla vita di persone o di attacchi terroristici, l’accertamento, la localizzazione, l’identificazione o l’azione penale nei confronti di un autore del reato o sospettato di un reato punibile con una pena o una misura massima di almeno tre anni.

L’uso di tali sistemi di identificazione biometrica anche in questi casi particolari richiede però una serie di specifici requisiti ed è attivabile solo con l’autorizzazione di un organo giudiziario.

Tra i sistemi ad alto rischio rientrano, invece, i software per il reclutamento di lavoratori o i sistemi di valutazione del credito, oppure l’applicazione di IA nella chirurgia assistita da robot. Dunque tale categoria ricomprende più in generale i sistemi che possono ledere un diritto individuale. Il loro utilizzo è consentito e dunque non vietato in modo assoluto come nel caso dei sistemi che presentano un rischio inaccettabile, a patto che essi rispettino una serie di requisiti obbligatori (tracciabilità, trasparenza, accuratezza, robustezza e sicurezza informatica) sia nella fase di progettazione che di sviluppo e garantiscano una serie di tutele a favore dei cittadini.

In caso di non conformità con il Regolamento sull’intelligenza artificiale, il profilo sanzionatorio prevede una multa fino a 30 milioni di euro o fino al 6% del fatturato globale annuo, a seconda di quale sia il valore più alto.

Infine, per i sistemi che presentino un rischio limitato (come i chatbot) le norme si limitano a prevedere limitati obblighi di trasparenza nei confronti degli utenti.

Research Fellow dell'Istituto per la Competitività (I-Com). Laureata in Economia presso l’Università degli Studi di Napoli “Federico II”, con una tesi in Finanza Aziendale Internazionale. Successivamente ha conseguito un master di II livello in “Concorrenza, economia della regolamentazione e della valutazione”, presso la medesima università.

Nessun Articolo da visualizzare

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.