Algoritmo, chatbot, IoT e smart city sono solo alcuni dei termini che vengono utilizzati pressocché quotidianamente, anche da parte di non esperti, per riferirsi a tutto il mondo dell’intelligenza artificiale (IA). Una definizione di questo fenomeno, che riesce a trasmettere le sue ampie potenzialità e campi di utilizzo, è stata fornita dal Parlamento europeo nel 2020: “l’intelligenza artificiale è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”. Ciò vuol dire che i sistemi intelligenti possono capire l’ambiente circostante, mettersi in relazione con esso, percepirne e risolverne i problemi e tutto questo è possibile perché l’IA ha raccolto una quantità enorme di dati, o per meglio dire, è stata addestrata con i dati, che successivamente processa per produrre una determinata risposta.

LE APPLICAZIONI DELL’INTELLIGENZA ARTIFICIALE E L’AI ACT

Nonostante possa sembrare ancora fantascienza, l’intelligenza artificiale è già presente nella vita di tutti i giorni. Ad esempio, si è davanti ad un’IA quando vengono mostrati suggerimenti su ricerche o acquisti online effettuati precedentemente, oppure ogniqualvolta si utilizza un assistente vocale che fornisce risposte sulla base di dati e informazioni che l’utente gli ha fornito più o meno consapevolmente nel corso del tempo. Non solo, gli utilizzi dell’intelligenza artificiale possono prestarsi a innumerevoli scopi, tra cui la lotta alla disinformazione (identificando parole ed espressioni prestabilite), la cybersicurezza (riconoscendo velocemente attacchi e minacce informatiche), la tutela della salute (migliorando la diagnosi e la prevenzione) e la produzione industriale (come nel caso delle attività di pianificazione e di manutenzione).

È anche sulla base di queste premesse che oltre due anni fa la Commissione europea ha emanato una proposta di regolamento per stabilire regole armonizzate sull’intelligenza artificiale (AI Act), che ora si trova nella fase finale, essendo cominciato il trilogo negoziale a seguito della formalizzazione della posizione del Parlamento il 14 giugno scorso.

LA COMMISSIONE AIDA E IL CODICE DI CONDOTTA CONGIUNTO TRA UE E USA

La proposta di AI Act non è un intervento isolato dell’Unione Europea in materia, difatti nel 2020 è stata istituita – nell’ambito del Parlamento europeo – la Commissione sull’intelligenza artificiale in un’era digitale (AIDA) che ha avuto il mandato ben preciso di elaborare una tabella di marcia sull’IA, al fine di rispondere alle conseguenti sfide economiche e sociali dei prossimi anni. Pertanto, il 5 aprile 2022 è stata pubblicata la Relazione sull’intelligenza artificiale in un’era digitale. In particolare, nel documento si evidenziano una serie di carenze dell’UE, tra cui la mancanza di accesso e condivisione di dati di elevata qualità, nonché di regole e norme armonizzate, l’elevato onere normativo e l’assenza di finanziamenti, ricerca, competenze e infrastrutture per l’IA, il che si riflette negativamente sulla competitività della stessa Unione. Inoltre, la Risoluzione sottolinea che la strategia sull’IA dell’UE dovrebbe considerare opportunamente gli aspetti militari e quelli legati alla cybersicurezza.

Proprio per tali ragioni, nel dicembre scorso, l’Unione Europea e gli USA si sono dotati di una tabella di marcia comune per un’IA affidabile e per la gestione dei rischi, sulla cui implementazione si è fatto il punto durante la quarta riunione ministeriale del Consiglio UE-USA per il commercio e la tecnologia (TTC) dello scorso 31 maggio. L’occasione è stata funzionale per ribadire un approccio comune basato sul rischio per quanto riguarda le tecnologie di intelligenza artificiale, nonché per sancire la cooperazione tra le due potenze anche con riferimento all’IA generativa. Inoltre, al termine dell’incontro, la vicepresidente della Commissione Europea Margrethe Vestager e il segretario di Stato americano Antony Blinken hanno annunciato che nelle prossime settimane verrà presentata una prima bozza per un codice di condotta comune sull’IA, che sarà aperto su base volontaria “a tutti i Paesi che condividono le stesse idee”.

Il codice di condotta comune si ritiene necessario per anticipare in qualche modo le regole previste dall’AI Act, il quale non entrerà in vigore – molto probabilmente – prima del prossimo dicembre e, se così fosse, non sarebbe comunque applicabile prima di almeno due anni di grace period.

IA E CYBERSECURITY

Come richiamato più volte, la cybersicurezza è un aspetto fondamentale nell’ambito dei sistemi di IA, in quanto questi ultimi possono essere sfruttati sia in ottica difensiva che offensiva. Nel primo caso, ad esempio, l’intelligenza artificiale può essere utilizzata per la rilevazione tempestiva di attacchi cibernetici, così come previsto anche dalla proposta di regolamento denominata Cyber Solidarity Act per la creazione di un cyber-scudo europeo. Nella seconda ipotesi, invece, tali sistemi – potendo essere potenzialmente a disposizione di tutti – vengono utilizzati (e lo saranno sempre di più) dai cyber-criminali per effettuare una scansione delle vulnerabilità di reti e sistemi della vittima, nonché per automatizzare metodologie e procedure di attacco.

Fonte: McKinsey & Company Survey, 2022

A conferma di quanto detto, dal grafico precedente si può evincere chiaramente che il principale fattore di rischio considerato come rilevante quando si adotta l’IA in un’organizzazione è costituito proprio dalla cybersicurezza (59% dei rispondenti), seguito dalla compliance (45%) e dalla privacy (40%).

Fonte: NetBase Quid, 2022

Difatti, come evidenziato in quest’ultima figura, la quota di investimenti privati in IA correlati alla cybersecurity e alla data protection raggiunge i $5,37 miliardi globali nel 2022, preceduta solo da fintech ($5,52 miliardi), gestione, processamento dati e cloud ($5,85 miliardi) e dal settore medico-sanitario ($6,05 miliardi). Pertanto, simili risultanze consentono di affermare che l’intelligenza artificiale applicata alla cybersicurezza, nonostante venga percepita generalmente come un rischio dalle imprese, è l’ambito di investimenti tra i più importanti a livello globale.

Se questi sono i dati su rischi e investimenti relativi al rapporto tra IA e sicurezza informatica, per quanto riguarda le iniziative sul punto in ambito comunitario, è opportuno fare riferimento ai recenti report dell’ENISA (l’Agenzia dell’Unione Europea per la cybersecurity), che sono stati pubblicati in occasione della Conferenza sul tema, tenutasi lo scorso 7 giugno a Bruxelles. In particolare, si tratta dei seguenti 4 documenti:

CONCLUSIONI

Dal quadro sin qui delineato è possibile comprendere che l’intelligenza artificiale, qualora residuassero ancora dubbi, è la tecnologia che sta guidando e guiderà da protagonista la trasformazione digitale dei prossimi anni nella quasi totalità dei settori dell’economia e della società. Per tale ragione, è quantomai essenziale garantirne un utilizzo controllato, senza lasciare spazi di incertezza, secondo una visione antropocentrica dell’IA, cosicché ne possa beneficiare la competitività tra aziende private, enti pubblici, Stati e organizzazioni, nonché la protezione dei diritti di imprese e cittadini. Inevitabilmente, ciò passa per un’attenta regolamentazione giuridica del fenomeno che, tuttavia, potrebbe arrivare troppo tardi ed è per questo che bisogna accelerare il passo sin da subito e su più fronti, tra cui cooperazione, ricerca, competenze, sicurezza ed etica nell’ambito di sistemi di intelligenza artificiale.

Dopo la laurea triennale in "Scienze Investigative" presso l'Università degli Studi di Foggia, ha conseguito con lode la laurea magistrale in "Scienze Giuridiche della Sicurezza - Sicurezza e circolazione dei dati" presso la stessa Università. Dal 2023 è ricercatore per l'Istituto per la Competitività (I-Com), occupandosi di temi inerenti la cybersicurezza, la new space economy e l'intelligenza artificiale.