Oggigiorno le informazioni e i dati hanno assunto un valore paragonabile a quello di beni di prima necessità, soprattutto quando essi possono essere impiegati da soggetti aziendali, statali o da singoli agenti per finalità strategiche, competitive e per supportare processi decisionali. È proprio in quest’ultima attività che la perdita di genuinità o di veridicità di un’informazione può determinare conseguenze spesso irrimediabili, perché sono i dati manipolati che alimentano il fenomeno sempre più pervasivo della disinformazione online.

COSA SI INTENDE PER DISINFORMAZIONE?

Nella comunicazione del 2020 sull’European democracy action plan, l’Unione Europea ha chiarito che per disinformazione si intende “un contenuto falso o fuorviante, diffuso con l’intento di ingannare o ottenere un guadagno economico e che può provocare danni pubblici”. Si tratta di una pratica che incide sul target manipolando il suo lato razionale, differenziandosi dalla propaganda che si sostanzia in “un contenuto diffuso per promuovere la propria causa o per danneggiare quella di un avversario, ricorrendo spesso a tecniche di persuasione non etiche”, coinvolgendo emotivamente il bersaglio al fine di polarizzare le posizioni contrapposte, farle scontrare e, in ultimo, ottenere un vantaggio. La lotta alla disinformazione è divenuta sempre più complicata, in quanto l’evoluzione digitale e le innumerevoli opportunità offerte dalla rete consentono agli utenti la fruizione di social networks e spazi online in cui poter condividere messaggi senza essere sottoposti ad eccessive restrizioni nell’esercizio della loro libertà di espressione. Tra le “armi” al servizio della disinformazione sta assumendo sempre di più un ruolo significativo il deepfake, frutto dell’importante evoluzione dei sistemi di Intelligenza artificiale.

Il DEEPFAKE

Quando si parla di deepfake si fa riferimento a una delle tecnologie rientranti tra le primary threats secondo l’ENISA, l’Agenzia dell’Unione europea per la cibersicurezza. Nello specifico, si tratta dell’uso e abuso di immagini, audio e video fake, prodotti da algoritmi di IA, che rendono tali risultati sempre più realistici, sollecitando l’esigenza di prevenire e contrastare il loro utilizzo orientato verso scopi correlati alla propaganda politica, alla disinformazione e al cyberwarfare.

Questa tecnica di alterazione della realtà ha impatti sia sulla vittima del deepfake che su chi valuta erroneamente il contenuto come reale. Quanto detto è confermato da alcuni esempi noti, come il video di Barack Obama che lo vedeva intento a pronunciare un discorso per allarmare la popolazione rispetto al pericolo delle fake news e della disinformazione; la diffusione di contenuti a danno di celebrità e persone comuni nell’ambito del Revenge Porn; le registrazioni audiovisive in cui il presidente russo e quello ucraino dichiaravano la fine del conflitto; l’annuncio politico di un Comitato nazionale repubblicano degli USA che mostrava immagini create dall’IA rappresentanti i potenziali effetti negativi della rielezione del presidente Biden nel 2004.

Inoltre, ci sono tecnologie di IA generativa idonee a creare da zero fotografie di volti non ispirati a soggetti esistenti ma così realistiche da poter illudere i destinatari non solo dell’esistenza di un evento che non si è realizzato, ma che non si realizzerà mai, poiché ha come protagonista una persona solo presunta come “reale”. Pertanto, anche in tal modo si può arrivare ad influenzare l’opinione pubblica.

COME SI CREA UN DEEPFAKE?

Il metodo più comune per creare un deepfake concerne l’uso di reti neurali profonde che coinvolgono autoencoder, ovverosia programmi di IA che studiano i video per captare le diverse sembianze del soggetto, mapparle sull’individuo nel video di destinazione e trovare caratteristiche comuni. La tecnica impiegata è quella dello scambio di volti. Un alto grado di utilità in quest’ambito è affidato ai GAN (Generative Adversarial Networks), i quali si basano sullo studio di una mole considerevole di dati e consentono di migliorare i difetti nelle immagini e nelle registrazioni false, complicandone la decodifica.

Il primo programma utilizzato a sostegno del deepfake è stato Fake App, poi affiancato da successivi software pubblicamente consultabili come DeepafaceLab, FaceSwap e Reface. In particolare, quest’ultima si sostanzia in un’applicazione per cellulari che permette di sovrapporre facce ad oggetti, rendere un’immagine animata fedelmente rifacendosi ad un video caricato per catturarne le espressioni facciali, attribuire la voce ad un volto immobile, permettendogli di parlare grazie all’uso di audio, nonché sostituire una faccia in un video attraverso una foto.

COME SMASCHERARE UN DEEPFAKE?

Il MIT (Massachusetts Institute of Technology) ha creato un test di autovalutazione, individuando i principali difetti che potrebbero permettere di capire se si è a contatto con un deepfake. Innanzitutto, è importante prestare attenzione al viso, che risulta essere il primo elemento di manipolazione, in particolare la fronte e le guance presentanti incoerenze rispetto alle altre componenti facciali. Gli occhi e le sopracciglia, gli occhiali e i riflessi vanno analizzati rispetto alle ombre e ai punti luce, così come la frequenza eccessiva o troppo rara del battito delle ciglia che può rappresentare un campanello di allarme. Peraltro, anche il colore dei peli del volto, delle labbra, della pelle, delle mani e la risoluzione di zone diverse del video, vanno valutate per evincere sospette ed eventuali incongruenze. Infine, in caso di inadeguata compromissione dell’audio originale, il risultato potrebbe essere asincrono rispetto al labiale del target.

LA REGOLAMENTAZIONE DEL DEEPFAKE

In virtù del fatto che l’espansione di questi servizi non subirà un freno, è necessario costruire degli argini legali che regolino il controllo delle nuove tecnologie. A livello globale, il 10 gennaio 2022 è stata emanata dalla China’s Cyberspace Administration la prima normativa mondiale che contrasta l’utilizzo, senza previa acquisizione del consenso, della propria voce o immagine da parte di piattaforme e servizi denominati “deep synthesis providers”. A questi ultimi viene richiesto di registrare i propri servizi e di porre i propri codici e dati a revisioni periodiche da parte dello Stato. Inoltre, sono completamente vietati i contenuti che non ottengono l’approvazione dagli enti governativi e quelli considerati idonei alla diffusione di false informazioni. Pertanto, non si procede ostacolando l’innovazione digitale, ma ponendo il consenso dell’interessato al centro della valutazione di liceità del suo utilizzo.

Per quanto riguarda l’Unione Europea, le istituzioni comunitarie, in particolare la Commissione, sono intervenute per disincentivare la disinformazione in rete. Nel 2018 è stato emanato un Codice di condotta volontario che garantisce maggiore trasparenza e responsabilità in capo alle piattaforme online, puntando sulla supervisione delle politiche inerenti il contrasto alla disinformazione da loro adottate. Questo codice è stato poi rafforzato nel 2022 con misure specifiche come la demonetizzazione della disinformazione e in particolare riconoscendo un quadro di monitoraggio, che coinvolge soprattutto le “piattaforme online molto grandi” a norma del Digital Services Act (DSA), per cui la violazione degli obblighi assunti da tali piattaforme nell’ambito del presente Codice di condotta può integrare le gravose sanzioni previste dal DSA. Inoltre, tra le altre misure previste rientrano anche l’istituzione di un Centro per la trasparenza e l’impegno verso una maggiore chiarezza della pubblicità politica.

Anche la proposta di Artificial Intelligence Act del 2021 ha fatto espresso riferimento ai deepfake includendoli nel proprio ambito di applicazione. Attraverso essa vengono richiamati i criteri con cui definire i sistemi di IA ad “alto rischio”, attribuendogli una serie di requisiti essenziali e procedure di valutazione da soddisfare prima di poter essere immessi sul mercato dell’UE. Nello specifico, all’interno del Titolo IV, per i software che generano deepfake sono proposti obblighi minimi di trasparenza.

In ambito nazionale, nel 2020 il Garante della Protezione dei Dati Personali ha reso pubblica una scheda informativa sui rischi dell’abuso del deepfake. In essa viene definita la tecnologia e come proteggersi dalla stessa, indicando alcuni suggerimenti specifici, tra cui:

1) Evitare di diffondere in modo incontrollato immagini personali o dei propri cari;

2) Stare attenti agli elementi tipici di un deepfake;

3) Evitare di condividere video o audio di dubbia affidabilità;

4) Rivolgersi alle autorità di polizia o al Garante per la protezione dei dati personali se si ritiene che il deepfake sia stato utilizzato in modo da commettere una violazione della privacy o un reato.

CONCLUSIONI

È sempre più evidente il contributo che l’IA sta apportando alla disinformazione mediante la creazione di deepfake dal carattere economico, tempestivo e alla portata di tutti. I rischi che ne possono derivare sia per la sicurezza dei singoli che della collettività non hanno lasciato inerti alcuni paesi tra cui, come precedentemente detto, la Cina, ma anche il Regno Unito e gli Stati Uniti che si stanno impegnando per adottare una legislazione specifica sul punto. Ad esempio, negli USA è in corso la valutazione di una proposta di legge federale, mentre nel novembre 2022 l’UK ha espresso la volontà di porre un divieto tassativo per la diffusione di video deepfake a carattere pornografico. L’UE non ha ancora disposto provvedimenti ad hoc, ma la lotta che conduce contro la disinformazione si è ormai consolidata da anni. Si pensi al rilievo assunto dalla piattaforma online anti fake news EUvsDisinfo, nata nel 2015 per raccogliere a livello internazionale i casi di disinformation a cui il pubblico ha libero accesso.

 

Ricercatrice dell'Istituto per la Competitività (I-Com). Ha conseguito una laurea magistrale in "Scienze Giuridiche della Sicurezza - Sicurezza dello Stato" presso l'Università degli Studi di Foggia e, precedentemente, una laurea triennale in "Scienze Investigative" presso la stessa Università.