Il Libro Bianco sull’intelligenza artificiale, assieme alla Strategia sui dati, costituisce uno dei pilastri della Strategia digitale pubblicata dalla Commissione europea a febbraio 2020. Come già anticipato nel nostro articolo di dicembre, il Libro Bianco punta a creare un quadro normativo per un’intelligenza artificiale “affidabile“, basata sulla fiducia e l’eccellenza, assieme a una proposta legislativa, la prima a livello mondiale.
Il 21 aprile scorso la Commissione europea ha presentato l’Artificial Intelligence Act (AI Act) che ambisce a regolamentare la materia in Europa secondo un approccio orizzontale e basato sul rischio, attraverso l’introduzione di forti restrizioni per quelle applicazioni che possano porre dei rischi per l’uomo. La bozza di regolamento prevede una serie di obblighi per le applicazioni di intelligenza artificiale che potrebbero avere un impatto diretto sulla vita personale o professionale del cittadino, ad esempio i processi di reclutamento. Le aziende o le amministrazioni che utilizzano questa tecnologia dovrebbero quindi garantire la trasparenza, il controllo umano sul suo utilizzo e il rispetto della normativa prevista. L’AI Act, inoltre, anche a vietare l’uso dell’intelligenza artificiale considerato incompatibile con i valori dell’Ue.
A livello di governance, la sua applicazione sarà attuata da un neonato Comitato europeo per l’intelligenza artificiale (European Artificial Intelligence Board), la cui funzione sarà quella di adottare posizioni su questioni derivanti dall’applicazione e dall’attuazione del regolamento stesso. Tale comitato sarà presieduto dalla Commissione e composto dalle autorità nazionali di vigilanza di mercato designate (National Supervisory Authorities) e dal Garante europeo della protezione dei dati (European Data Protection Supervisor). In generale, le disposizioni dell’AI Act rendono impossibile per gli Stati membri la regolamentazione in materia a livello nazionale, sebbene il testo consenta loro di “adeguare” le disposizioni al regime nazionale di intelligenza artificiale. Inoltre, gli Stati membri potranno regolamentare in specifici casi esentati, come ad esempio le applicazioni per uso militare.
Per quanto riguarda l’implementazione, questa rimane responsabilità dei Paesi dell’Unione attraverso le loro autorità di notifica designate. Tuttavia, la Commissione stessa può avviare un’indagine per garantire che siano conformi alle disposizioni del testo. Inoltre, ciascuna autorità nazionale di sorveglianza dovrà informare sia la Commissione che le altre autorità nazionali su qualsiasi iniziativa volta a limitare o vietare le applicazioni in questione. Infine, l’esecutivo Ue prevede di avviare un Piano coordinato con i governi nazionali volto a promuovere gli investimenti nelle competenze e nelle infrastrutture di intelligenza artificiale, con l’obiettivo principale di aumentare gradualmente gli investimenti pubblici e privati a 20 miliardi di euro l’anno per il prossimo decennio. Ai finanziamenti nazionali dovrebbero aggiungersi le massicce risorse provenienti dalla Recovery and Resilience Facility (RRF), dal Programma Europa digitale e da Horizon Europe.
A fronte di tutto ciò, poiché la proposta della Commissione riguarda la protezione dei consumatori, una delle principali sfide per la regolamentazione europea sull’intelligenza artificiale sarà quella di bilanciare efficacemente la garanzia della sicurezza dei prodotti con la legislazione e di evitare di rallentare lo sviluppo delle applicazioni per sostenere l’innovazione e la competitività dell’economia e dell’industria europee.
A Bruxelles i negoziati tra i co-legislatori, il Parlamento europeo e il Consiglio dei ministri degli Stati membri dell’Ue, procedono a rilento vista la delicatezza e la tecnicità del dossier. In Parlamento, le commissioni si stanno ancora scontrando sul fascicolo. In Consiglio, alcuni Stati membri stanno ancora definendo le loro posizioni, mentre per altri le disposizioni testuali sulle applicazioni di intelligenza artificiale vietate e ad alto rischio sono ancora da chiarire. Inoltre, si prevede che il giusto equilibrio tra la tutela dei diritti fondamentali e la sicurezza pubblica animerà le negoziazioni. Il tema più controverso riguarda l’identificazione biometrica negli spazi pubblici, che sarà consentita alle forze dell’ordine solo in casi molto specifici, come rapimenti o attentati terroristici e previa approvazione ex ante dell’autorità giudiziaria.
Con l’AI Act, l’Ue aspira quindi a diventare, riprendendo le parole del commissario per il Mercato interno Thierry Breton, “il principale pacemaker” nella regolamentazione sull’uso dell’intelligenza artificiale su scala globale. Parallelamente, il Consiglio d’Europa (CoE) sta lavorando a un trattato internazionale che introdurrebbe regole rigorose sui sistemi che comportano rischi per la salvaguardia dei diritti umani, dello stato di diritto e del funzionamento democratico. Il trattato è destinato a introdurre norme rigorose per le applicazioni che potrebbero essere in contrasto con i diritti umani, comprese le tanto discusse tecnologie di riconoscimento biometrico. Sebbene l’imminente trattato del CoE possa rafforzare la posizione dell’Ue nella definizione di uno standard globale in materia, i negoziati a livello europeo potrebbero richiedere invece diversi mesi.