L’intelligenza artificiale rappresenta senza dubbio uno degli sviluppi tecnologici maggiormente impattanti a causa delle sue innumerevoli potenzialità applicative. Se da un lato offrono opportunità straordinarie non solo alle imprese e ai cittadini ma anche alle pubbliche amministrazioni, dall’altro pongono infatti innumerevoli questiono giuridiche ed etiche da affrontare. Per offrire una risposta a tale esigenza, e con l’obiettivo di adottare il primo regolamento al mondo sull’intelligenza artificiale, nel 2021 la Commissione europea ha lanciato una proposta di Artificial Intelligence Act sulla quale, all’esito di un ampio e complesso dibattito che ormai dura da un biennio, lo scorso 27 aprile è stato raggiunto un accordo politico provvisorio. In attesa del voto della plenaria, probabilmente la settimana prossima, sono diverse e importanti le modifiche e integrazioni alla proposta della Commissione sulla scia e, anche in parte, in risposta al grande fermento dialettico suscitato recentemente dalle nuove tecnologie e da applicazioni di IA particolarmente innovative quali, ad esempio, ChatGPT.
GLI SCENARI GLOBALI E NAZIONALI DELL’INTELLIGENZA ARTIFICIALE
È ormai conclamata la straordinarietà delle innumerevoli applicazioni che l’intelligenza artificiale offre e le previsioni di crescita del mercato globale dell’IA non fanno che fotografare uno scenario positivo e in forte evoluzione, con un tasso di crescita nei prossimi sette anni di oltre il 36% che vedrebbe il mercato globale dell’IA passare da 207,9 mld di dollari del 2023 a 1.847,5 mld nel 2030.

Nonostante le previsioni parlino di un fenomeno in forte espansione, permane a livello globale una forte disomogeneità negli investimenti in questo ambito. Nel 2022 gli Stati Uniti hanno guidato la classifica globale dei paesi leader per spesa lorda in ricerca e sviluppo in IA, seguiti abbastanza da vicino dalla Cina e a una grande distanza dal Giappone terzo classificato. L’Italia, purtroppo, registra una performance che denota ancora una certa immaturità del sistema.
Ciononostante, i dati diffusi da Anitec-Assinform registrano per l’Italia un incremento del mercato dell’intelligenza artificiale del 21,9% nel 2022, con un volume di circa 422 milioni di euro e previsioni secondo cui tale valore salirà a 700 mln nel 2025, con un tasso di crescita medio annuo del 22%. Ciò che preoccupa, tuttavia, è lo scarso utilizzo da parte delle imprese italiane, in particolare quelle di minori dimensioni: secondo dati ISTAT del 2021, infatti, solo il 6,2% delle imprese ha dichiarato di utilizzare sistemi di Intelligenza artificiale, contro una media dell’8% nell’Unione europea; in particolare, la percentuale di piccole imprese si attesta al 5,3%, contro il 24,3% delle grandi imprese.
LE PRINCIPALI MODIFICHE E INTEGRAZIONI APPORTATE DAL PARLAMENTO UE
La proposta lanciata dalla Commissione, come noto, adotta un approccio basato sul rischio che rafforza ed amplia gli obblighi in funzione della rischiosità del sistema fino a giungere a vietare quei sistemi che pongono rischi ritenuti inaccettabili.
Andando ad analizzare il testo del Parlamento UE, rilevano innanzitutto le precisazioni contenute nell’oggetto e nell’ambito di applicazione del regolamento. E infatti, se da un lato viene esplicitata l’intenzione di dettare regole armonizzate non solo per l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale, ma anche per il loro sviluppo, dall’altro, con riguardo all’ambito di applicazione, si va ad includere anche i fornitori e gli utenti di sistemi di IA situati in un paese terzo, non solo laddove l’output prodotto dal sistema sia utilizzato nell’Unione, ma anche nell’ipotesi in cui esso interessi persone fisiche all’interno dell’Unione. A ciò si aggiunge l’inclusione anche delle istituzioni, gli uffici, gli organismi e le agenzie dell’Unione quando agiscono in qualità di fornitori o utenti di un sistema di IA.
Rilevante anche l’arricchimento del quadro definitorio che va ad includere la definizione di dati biometrici e dati basati su elementi biometrici, tecniche subliminali, categorie particolari di dati personali, infrazione diffusa (anche a livello unionale), rischio e ad arricchire il concetto di sistema di categorizzazione biometrica per includere anche la salute, l’abilità mentale o fisica, i tratti comportamentali o della personalità.
Assolutamente importanti, soprattutto per il potenziale impatto sullo sviluppo di soluzioni nuove, le modifiche al Titolo III relativo ai sistemi ad alto rischio e in particolare all’art. 7 che nel conferire alla Commissione il potere di aggiornare l’elenco dei sistemi ad alto rischio, consente tale aggiornamento in presenza di un sistema di IA che presenti un rischio di danno per la salute e la sicurezza, un rischio di impatto negativo sui diritti fondamentali, o un rischio di violazione dei valori dell’Unione e tale rischio sia, in relazione alla sua gravità e alla probabilità di insorgenza, equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio in uso nei settori elencati nell’allegato III. Nel valutare la sussistenza delle condizioni che suggeriscono l’aggiornamento dell’elenco dei sistemi ad alto rischio, la Commissione è chiamata a consultare, dove ciò sia pertinente, i rappresentanti dei gruppi sui quali un sistema di IA ha avuto un impatto, l’industria, esperti indipendenti e organizzazioni della società civile nonché ad organizzare consultazioni pubbliche al riguardo.
Vengono rafforzati gli obblighi di comunicazione a carico dei fornitori in materia di misure correttive, essendo essi chiamati ad informare immediatamente i distributori del sistema di IA ad alto rischio e, dove applicabile, il rappresentante autorizzato, gli importatori e gli utenti, nonché le autorità nazionali competenti degli Stati membri in cui hanno messo a disposizione o messo in servizio il sistema di IA e, dove applicabile, l’organismo notificato in merito alla non conformità e alle eventuali misure correttive adottate.
Rispetto ai sistemi vietati, il Parlamento ha esteso il divieto ai software di identificazione biometrica, per i quali si prevede l’utilizzo ex post solo per reati gravi e previa autorizzazione del giudice mentre viene sancito il divieto di uso del software di riconoscimento delle emozioni nei settori dell’applicazione della legge, della gestione delle frontiere, del lavoro e dell’istruzione. Il divieto di controllo predittivo è invece stato esteso dai reati penali a quelli amministrativi.
Interessanti e penetranti anche le modifiche relative ai poteri di azione, audizione e raccolta di informazioni, indagine, ispezione ed esecuzione in capo alla Commissione nonché al sistema di cooperazione e scambio di informazioni tra la Commissione e le autorità nazionali competenti, nonché le previsioni concernenti i mezzi di reclamo e di ricorso giurisdizionale effettivo nei confronti dell’autorità nazionale di controllo.
CONCLUSIONI
L’intelligenza artificiale rappresenta un fenomeno dalle straordinarie opportunità di sviluppo. A livello generale sussistono approcci diversi che vanno da quello inglese e statunitense, improntati, al momento, ad un approccio teso ad applicare all’IA il set di regole già esistenti e a non appesantire dunque il quadro normativo, a quello cinese che prescrive alle aziende la registrazione dei prodotti AI e la sottoposizione degli stessi a rigorosi controlli di sicurezza prima del rilascio al pubblico, a quello europeo che, sulla base di un approccio orientato al rischio che prevede misure ed obblighi crescenti al crescere della rischiosità dei sistemi di IA e nella logica di superare la frammentazione normativa esistente, mira invece a stabilire un quadro di regole specifiche.
Le modifiche proposte dal Parlamento, sebbene cerchino di chiarire concetti e rafforzare tutele soprattutto in relazione ai sistemi ad alto rischio, si traducono anche in maggior rigore che merita particolare attenzione, da un lato per la chiara tendenza a rispondere a questioni e criticità del presente che rischia di minare la capacità delle regole di essere a prova di futuro, dall’altro per l’impatto che la definizione di un quadro normativo e regolamentare rigido e particolarmente severo potrebbe esercitare sull’innovazione e sulla capacità dell’UE di essere competitiva nel contesto globale.
In questa partita l’Italia appare ancora immatura, sebbene non manchino segnali positivi per i prossimi anni. È chiaro che in questo contesto è fondamentale, se si vuole provare a ricoprire un ruolo di peso in questo settore, adottare iniziative di politiche industriale maggiormente orientate alle nuove tecnologie in generale e all’IA in particolare che diano slancio a tale fenomeno, dotino innanzitutto le imprese che si trovano a competere sul mercato, soprattutto quello meno attrezzate, delle conoscenze e competenze necessarie a comprendere e cogliere le opportunità offerte dall’AI.