A partire dal 2 febbraio scorso hanno iniziato ad applicarsi le prime norme ai sensi dell’Artificial Intelligence Act (AI Act) tra cui quelle recanti la definizione del sistema AI, l’alfabetizzazione AI e un numero molto limitato di casi di utilizzo AI proibiti che pongono rischi inaccettabili nell’UE. Con l’intenzione di fugare dubbi applicativi, la Commissione europea ha pubblicato le Linee guida sulla definizione del sistema di intelligenza artificiale e le Linee guida sulle pratiche vietate di intelligenza artificiale (IA), come definite dalla legge sull’IA.
L’AI Act e l’ambizione europea
Dopo aver riconosciuto, già nel 2018 con la comunicazione “AI per l’Europa” e successivamente nel 2010 con la pubblicazione del Libro Bianco sull’IA, le straordinarie opportunità ed i rischi connessi alla diffusione dell’IA, il 13 giugno 2024 è stato adottato l’AI Act. Si tratta di un traguardo particolarmente rilevante attraverso il quale l’UE ha istituito un quadro di riferimento legale volto a normare il mercato dell’UE dell’IA, fissando regole armonizzate per l’immissione sul mercato, la messa in servizio e l’uso di sistemi di intelligenza artificiale nell’UE, compresi quelli di uso generale (general purpose AI models), vietando alcuni sistemi di IA ritenuti inaccettabili, fissando requisiti specifici per i sistemi di intelligenza artificiale ad alto rischio e definendo obblighi per gli operatori di tali sistemi, specifiche norme sul monitoraggio del mercato, sulla governance della sorveglianza del mercato e sull’applicazione delle norme ed individuando misure a sostegno dell’innovazione, con particolare attenzione alle PMI, comprese le start-up.
L’ambizione europea di assurgere a modello globale è palesata dall’ampiezza dell’ambito applicativo che include tutti i fornitori che immettono sul mercato o mettono in servizio sistemi di IA nell’UE, indipendentemente dal luogo di stabilimento, i distributori ed importatori di sistemi di IA, gli utenti dei sistemi di IA situati nell’Unione ed i fornitori ed utenti di sistemi di IA situati in un paese terzo, laddove l’output prodotto dal sistema sia utilizzato nell’UE.
Esulano dall’ambito di applicazione del regolamento i sistemi di IA se e nella misura in cui sono immessi sul mercato, messi in servizio o utilizzati con o senza modifiche esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività, così come i sistemi di IA o modelli di IA, ivi compresi i loro output, specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici.
L’approccio regolamentare seguito si fonda sul diverso grado di rischio che porta ad individuare usi dell’IA che creano un rischio inaccettabile, un rischio elevato ed un rischio basso o minimo e a declinare obblighi diversificati, , da cui discendono evidentemente conseguenze diverse. Di cruciale rilevanza ed ancora una volta indicativo dell’intenzione dell’UE di guidare gli sviluppi dell’IA nel contesto internazionale, l’elenco delle pratiche vietate in quanto considerate inaccettabili per violazione dei valori dell’Unione (art. 5 del regolamento).
Il regolamento detta poi una disciplina molto dettagliata con riguardo ai sistemi ad alto rischio. Si tratta, in particolare, si sistemi che pongono un significativo rischio per la salute, la sicurezza o i diritti fondamentali dei cittadini e, dunque, i sistemi di identificazione e categorizzazione biometrica o per il riconoscimento delle emozioni, applicativi di sicurezza di infrastrutture critiche, software educativi o di formazione, per valutare i risultati di studio, per assegnare corsi o per controllare gli studenti durante gli esami, algoritmi per valutare curriculum o distribuire compiti e impieghi, algoritmi impiegati dalla pubblica amministrazione o da enti privati per assegnare sussidi, per classificare richieste di emergenza, per smascherare frodi finanziarie o per stabilire il grado di rischio quando si sottoscrive un’assicurazione. A ciò si aggiungono gli algoritmi usati dalle forze dell’ordine, dal potere giudiziario e dalle autorità di frontiera per valutare rischi, scoprire flussi di immigrazione illegale o individuare pericoli sanitari con la precisazione però che se l’algoritmo serve solo per svolgere una procedura limitata, per ottimizzare il risultato di un lavoro realizzato da un individuo, per identificare deviazioni dagli usuali processi decisionali o per svolgere lavori preparatori di controllo, non viene considerato ad alto rischio. Dal punto di vista operativo sarà la Commissione, entro 18 mesi dall’entrata in vigore del regolamento, a fornire le linee guida per l’applicazione della disciplina concernente i sistemi ad alto rischio, così come a modificare, eventualmente, la lista degli algoritmi che ricadono sotto questa categoria.
Rispetto ai sistemi ad alto rischio, il regolamento individua i criteri da seguire per valutare se un sistema di IA presenta alti rischi e fissa una serie di requisiti obbligatori – tra cui la sorveglianza umana – oltre a subordinare l’access al mercato europeo di tali sistemi ad una valutazione della conformità ex ante secondo procedure dettagliatamente descritte. Lo stesso regolamento prevede inoltre la necessità di prevedere, in caso di pericolo imminente, la possibilità di bloccare l’intelligenza artificiale attraverso un bottone di stop o una procedura simile, che consente al sistema di bloccarsi in modo sicuro, prescrive agli sviluppatori di istituire un sistema di verifica della qualità, di sottoporsi alle analisi di conformità, di applicare il marchio CE, nonché di comunicare eventuali incidenti alle autorità secondo le tempistiche e le procedure previste. Specifici obblighi sono posti a carico di importatori e distributori di sistemi di IA ad alto rischio.
Per quanto riguarda, invece, i sistemi di AI per uso generale, ossia in grado di svolgere compiti diversi come la produzione di testi o immagini e allenati attraverso un’enorme mole di dati non categorizzati (si pensi a GPT-4 o LaMDA), il regolamento prescrive agli sviluppatori di assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano chiaramente riconoscibili come generati da un’AI al fine di garantire adeguata consapevolezza da parte degli utenti. Nel tentativo di arginare il dilagare delle fake news, si prevede, inoltre, che i contenuti deepfake siano etichettati come tali (attraverso sistemi come il watermarking, la filigrana digitale applicata a foto o video).
Specifiche previsioni sono destinate ai sistemi di alto impatto, ossia quelli che avendo maggiori effetti sulla popolazione, sono soggetti ad obblighi più stringenti su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di sbarcare sul mercato, rispetto ai quali il regolamento fissa una soglia – modificabile se opportuno per rispondere alle evoluzioni tecnologiche future – identificata in un potere di calcolo pari a 10^25 FLOPs (floating point operations per second, un’unità di misura della capacità computazionale).
Molto articolata l’architettura normativa concernente la governance, che a livello europeo ruota intorno al Consiglio per l’IA, composto da un rappresentante per Stato membro, che opererà con la partecipazione anche del Garante europeo della protezione dei dati come osservatore e dell’Ufficio per l’IA, istituito all’interno della Commissione, al forum consultivo (advisory forum) rappresentativo in maniera bilanciata dei vari stakeholders inclusa industria, PMI, start-up, società civile e università e di cui sono membri permanenti una serie di soggetti individuati tra cui l’Agenzia europea per la Cybersecurity (ENISA) e all’AI Office collocato sotto la DG Connect, titolare di specifici compiti di monitoraggio e controllo (specie con riguardo ai sistemi per uso generale), è prevista la possibilità di istituire un panel scientifico di esperti indipendenti selezionati dalla stessa Commissione sulla base di una serie di criteri dettati dal regolamento.
A ciascun Stato Membro è rimessa invece la designazione di almeno un’autorità competente al fine di garantire l’applicazione e l’attuazione del regolamento (con il compito, anche, di fornire orientamenti e consulenza sull’attuazione dello stesso regolamento) e di una autorità di notifica e la formulazione di una relazione annuale da trasmettere alla Commissione.
Entrato in vigore il 2 agosto 2024, l’AI Act prevede un’applicazione graduale delle sue disposizioni per cui mentre le regole riguardanti i sistemi di AI di uso generale diverranno applicabili dall’agosto 2025, il corpus principale, incluse le norme sui sistemi ad alto rischio, si applicherà dal 2 agosto 2026. Dal 2 febbraio 2025 sono diventate invece operative due gruppi di disposizioni chiave:
- I divieti relativi a determinate pratiche di AI (art. 5)
- I requisiti in materia di Alfabetizzazione in materia di AI (art. 4).
Le linee guida della Commissione europea. Un supporto per la fase applicativa
In questo contesto, si inquadrano le linee guida pubblicate dalla Commissione europea che pur non avendo carattere vincolante e costituendo uno strumento dinamico che potrà essere integrato in caso di necessità sopravvenute, rappresentano un’iniziativa senza dubbio importante per supportare la fase applicativa del regolamento.
In particolare, le linee guida sulla definizione del sistema di intelligenza artificiale spiegano l’applicazione pratica del concetto giuridico, con l’intento di assistere i fornitori e gli altri soggetti interessati nel determinare se un sistema software costituisca un sistema di intelligenza artificiale ed agevolare così l’applicazione e l’osservanza delle norme. È chiaro, infatti, che essendo all’applicabilità dell’AI Act subordinata al possesso, da parte di un determinato sistema tecnologico, dei requisiti necessari a qualificarlo come “sistema di intelligenza artificiale”, è cruciale che tale definizione non sia colpita da ambiguità. In tale logica, le linee guida forniscono finalmente una risposta chiara, delineando i confini tra i sistemi di IA e i software tradizionali. Partendo dalla definizione contenuta nell’art. 3 dell’AI Act, le linee guida evidenziano le caratteristiche dei sistemi di IA in sette caratteristiche chiave: 1) essere sviluppati ed eseguiti su macchine, includendo sia hardware che software; 2) essere in grado di agire autonomamente, seppur con possibili interventi umani (autonomia); 3) essere in grado di modificare il proprio comportamento sulla base dell’esperienza (adattabilità); 4) perseguire scopi definiti in modo chiaro o dedotti dalle ipotesi di base del sistema (obiettivi). Le linee guida distinguono tra gli obiettivi del sistema – che si caratterizzano per essere interni al sistema relativi agli obiettivi dei compiti da svolgere e ai loro risultati – e lo scopo che, al contrario, è orientato all’esterno e comprende il contesto in cui il sistema è stato progettato per essere utilizzato e come deve essere gestito; 5) elaborare input per produrre output come previsioni, raccomandazioni o decisioni (inferenza); 6) avere input che includono previsioni, raccomandazioni, contenuti o decisioni; 7) assumere decisioni che hanno un impatto concreto (influenza su ambienti fisici o virtuali).
Tali peculiarità mostrano come le vere caratteristiche distintive siano l’autonomia e l’inferenza, quest’ultima esercitabile secondo modelli di apprendimento automatico (modelli supervisionati, modelli non supervisionati, auto-supervisionati, apprendimento per rinforzo) o approcci basati sulla logica (si pensi ai sistemi esperti, molto usati per le diagnosi mediche comuni, progettati per risolvere compiti complessi deducendo risposte a partire da regole prestabilite).
Se da un lato le linee guida descrivono le caratteristiche dei sistemi di IA anche attraverso esempi applicativi, dall’altro, sempre in una logica di garanzia della certezza del diritto, individuano i sistemi fuori dall’ambito applicativo dell’AI Act e, dunque, tutti quei sistemi che applicano regole predefinite senza apprendimento autonomo. Rientrano in questa categoria i sistemi di ottimizzazione matematica, sistemi di “trattamento di dati di base” (come ad es. i software di gestione database, che filtrano e ordinano dati secondo criteri specifici oppure strumenti di analisi statistica che mostrano i dati in forma visiva, senza tuttavia produrre inferenze autonome) e i sistemi basati su euristiche classiche o previsioni semplici (es. sistemi di previsione finanziaria).
Se le linee guida descritte hanno chiarito il concetto giuridico di sistema di IA, le linee guida sulla gestione del “rischio inaccettabile” per l’intelligenza artificiale, offre indicazioni pratiche per le Autorità competenti, providers e deployer di tecnologie IA attraverso ben 135 pagine di esempi, eccezioni, valutazioni, limitazioni e approfondimenti attraverso cui viene chiarita la visione della Commissione sull’articolo 5 dell’AI Act. L’obiettivo ultimo è assicurare la corretta applicazione della legge e favorire il rispetto delle normative in modo uniforme e coerente. Si tratta di un documento anch’esso non vincolante, ma straordinariamente importante per l’ausilio che potrà offrire anche in considerazione del fatto che per il mancato rispetto dei divieti è previsto il più alto tetto sanzionatorio dell’AI Act, con multe fino ad un massimo di 35.000.000 €, o il 7% del fatturato annuo mondiale totale dell’anno finanziario precedente, a seconda di quale sia maggiore.
Come già evidenziato, l’art. 5 dell’AI Act contiene un elenco dettagliato di specifiche pratiche considerate inaccettabili per il loro impatto sui diritti fondamentali. Si tratta, in particolare, di sistemi che sfruttano tecnologie subliminali per manipolare i comportamenti degli individui, abusano di persone vulnerabili e fragili, assegnano un punteggio sociale da cui discendono conseguenze pregiudizievoli sulla base di una valutazione o classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo fondata sul loro comportamento sociale o su caratteristiche personali o della personalità note, inferite o previste, operano la categorizzazione biometrica sulla base di dati personali sensibili, come il credo religioso, l’orientamento politico o sessuale così come la pratica di scraping da internet di volti ed il riconoscimento delle emozioni sul posto di lavoro o a scuola. Il regolamento vieta anche la polizia predittiva, ossia l’impiego di informazioni come ad es. tratti della personalità, nazionalità, situazione familiare o economica, per stabilire la probabilità che compia un reato.
Per quanto concerne l’uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, il regolamento fissa in maniera tassativa gli obiettivi che ne consentono l’impiego, il contesto e le cautele da osservare e le procedure da seguire anche per valutarne l’impatto sui diritti fondamentali. Ai garanti nazionali dei dati personali e del mercato è fatto obbligo di spedire ogni anno alla Commissione un rapporto sull’uso dei sistemi di riconoscimento biometrico in tempo reale, così come di eventuali usi proibiti. Ad ogni modo, gli Stati dell’Unione possono adottare leggi nazionali per ampliare il raggio d’azione della sorveglianza biometrica, nel rispetto dei paletti fissati dall’AI Act.
È riconosciuta agli Stati membri la facoltà di prevedere la possibilità di autorizzare, in tutto o in parte, l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico per finalità di enforcement della legge (prevedendo le procedure da seguire per la richiesta di autorizzazione e l’impiego di tali sistemi nonché per il controllo) così come di adottare una normativa più restrittiva sull’impiego di tali sistemi. Nel primo caso, si prescrive l’invio di un report annuale in relazione all’impiego di tali sistemi che andrà a confluire all’interno del report annuale curato dalla Commissione europea.
Ebbene, rispetto a tali sistemi le linee guida offrono una serie corposa di esempi ed indicazioni per poi soffermarsi anche sui sistemi esclusi, sulla cooperazione con paesi terzi, nonché precisazioni circa la possibilità, nell’ambito delle attività di ricerca e sviluppo, anche di sperimentare tecniche manipolative. Molto importante anche la distinzione tra attività professionale e non professionale e la conseguente esclusione dall’ambito applicativo delle attività personali.
Specifica attenzione è dedicata anche all’enforcement dell’art. 5 ed al tema delle sanzioni, particolarmente aspre, previste nel caso di violazione dell’art. 5.
Conclusioni
Dopo un lungo percorso, non privo di criticità connesse al tentativo di regolamentare un fenomeno ad elevata dinamicità e straordinaria complessità come quello dell’intelligenza artificiale, l’UE è arrivata a dotarsi di un regolamento, l’AI Act, che definisce regole per lo sviluppo e l’uso dei sistemi di IA. Si tratta di un traguardo importante, raggiunto da una realtà, quella europea, che punta, sì, così come accaduto in passato con il GDPR, ad assurgere a modello globale, ma che, al contempo, si trova in una situazione di fortissimo ritardo nel confronto con Cina e USA, sia in termini di sviluppo, che di adozione.
Al netto delle considerazioni legate al rischio che in un contesto geopolitico così complesso possano generarsi analoghi tentativi di disciplinare nella propria area di giurisdizione il fenomeno dell’IA con tutte le conseguenze che ne deriverebbero per le aziende globalmente attive, ponendo ancora una volta all’attenzione la necessità di avviare riflessioni globali su fenomeni come l’IA, è fuor di dubbio che per come stanno le cose oggi in Europa, la certezza del diritto sia un must irrinunciabile per evitare che i dubbi applicativi si traducano in un ulteriore ostacolo agli investimenti e all’innovazione. Ben vengano, dunque le linee guida della Commissione, che puntano a fare chiarezza e a favorire quell’accelerazione che il report Draghi ed il recente Competitiveness Compass a gran voce richiedono.
Nonostante sia chiaro l’obiettivo da perseguire, ossia il recupero del ritardo europeo, il Compass non dedica sufficiente attenzione al tema delle risorse da impegnare sul campo per colmare il gap europeo ed annuncia, al contrario, ulteriori iniziative legislative come l’AI Development Act che vanno necessariamente monitorate per evitare che le norme sul digitale continuino a proliferare ingessando il mercato e lo sviluppo e minando ancora una volta la competitività europea.