Lunedì è circolata su Twitter un’immagine che mostrava un’esplosione fuori dal Pentagono. Il dipartimento di polizia di Arlington e tutti i media tradizionali ha rapidamente smentito l’immagine twittando: “Non c’è NESSUNA esplosione o incidente in corso al Pentagono, e non ci sono pericoli o pericoli immediati per il pubblico”. Ma questo non ha impedito la sua diffusione sui social, mandando in tilt Wall Street, con il Dow Jones Industrial Index sceso di 85 punti in soli 4 minuti, per poi risalire altrettanto rapidamente.
L’episodio ha destato non poca preoccupazione soprattutto riguardo i rischi d’uso dell’AI generativa, ma anche riguardo ladiffusione di fake news da account Twitter verificati che hanno sottoscritto il programma Twitter Blue. Uno degli account che ha twittato l’immagine era infatti un account verificato che impersonava un feed di notizie di Bloomberg (@BloombergFeed) ora sospeso. Ora che chiunque può pagare per essere verificato su Twitter, situazioni come questa sono la tempesta perfetta di disinformazione.
Le fake news sono sempre esistite!
In realtà notizie false, rumors, dicerie o meglio bufale sono sempre esistiti, fin dai tempi antichi. Ad esempio nel 1814 venne diffusa la falsa notizia sulla morta di Napoleone, che scatenò una vera e propria reazione a catena che quasi portò al crollo della borsa di Londra.
E ci sarebbero molti altri esempi da citare, ricordo ad esempio le numerose leggende metropolitane, così le chiamavamo, che venivano raccontate e rimbalzate quando ero poco più che una bambina. Una delle più famose riguardava New York e gli alligatori ed è nata intorno agli anni ‘20. Secondo i sostenitori di questa leggenda, che si rifanno a supposte prove e testimonianze, gli alligatori avrebbero costituito piccole comunità negli impianti fognari di New York e si starebbero così riproducendo a dismisura sotto la città. Leggenda è stata anche ripresa molto spesso nella cultura contemporanea in romanzi, fumetti e film, anche se non esiste nessuna prova che la verifichi.
La differenza con i tempi odierni è che oggi la diffusione di notizie false grazie a internet ha una velocità sorprendente, molto più che nel passato. Prima che si riesca a rendersi conto che una notizia è falsa, questa ha avuto tutto il tempo di raggiugere milioni di persone, generando polemiche globali, accesi dibattiti e spesso vere e proprie battaglie.
Il pericolo dell’intelligenza artificiale generativa
Inoltre il recente e rapido aumento dell’uso dell’intelligenza artificiale generativa ha spinto molti a domandarsi quanto la creazione di deep fake dall’aspetto realistico possa mettere le persone sempre più in difficoltà nello stabilire cosa è falso e cosa è reale e contribuire alla diffusione di notizie false, potenzialmente molto pericolose.
Tutti abbiamo visto le foto di Papa Francesco vestito come un trapper. O di Macron in mezzo alle proteste per le pensioni. O ancora di Trump in carcere. Tutte generate col re degli editor di immagini nel mondo dell’AI generativa: Midjourney.
L’AI generativa è in grado sfornare in pochi istanti e a prezzi bassissimi una serie infinita di immagini e, a breve, anche di video di qualità sempre migliore. Uno studio pubblicato dal Global Network on Extremism and Technology sottolinea proprio come “l’avvento dell’intelligenza artificiale generativa possa consentire a una varietà di attori non statali di produrre un’enorme quantità di contenuti di propaganda sempre più sofisticati e con sempre meno sforzo”. Ovviamente, lo stesso vale anche per la propaganda di stato o di partito.
Questi sviluppi tecnologici si instaurano in uno scenario in cui solo il 39% dei cittadini dell’Unione Europea oggi si fida della stampa ed è molto aumentata la fruizione delle notizie in quella che è stata definita “modalità intrattenimento” (come l’ha definita lo European Journalism Observatory), ossia leggere le notizie senza nemmeno fare più caso a quanto possano essere vere o false. Dovremmo quindi prepararci a un futuro in cui non riusciremo più a distinguere notizie false da quelle vere?
Il problema è la tecnologia o piuttosto l’utilizzo che facciamo di essa?
Sicuramente la nuova possibilità di falsificare la voce di un politico, per esempio, mettendogli in bocca dichiarazioni compromettenti, e creare dal nulla interi video studiati a tavolino e da diffondere online in maniera virale destano una grande preoccupazione. Il rischio, come riassume Federica Russo, coordinatrice del progetto SOLARIS, è “…di finire con il credere a cose non vere, ma anche e soprattutto quello di non poter più credere a niente”.
Per questo negli ultimi anni sono stati avviati numerosi programmi per studiare il fenomeno e capire come arginarlo. Come ad esempio il DARPA, agenzia nordamericana di ricerca per la difesa, la prima struttura di intelligence a muoversi formalmente per contrastare attacchi basati sul deep fake, che ha impiegato un primo investimento di 68 milioni di dollari per lo sviluppo di tecniche in grado di identificare automaticamente i video manipolati. Si tratta di tecniche basate sulle RNN, le reti neurali ricorrenti, «che permettono la classificazione di contenuti falsi a partire da alcuni aspetti visivi come il colore degli occhi, i riflessi mancanti e i dettagli mancanti nelle aree degli occhi e dei denti». Sono numerose le applicazioni che gli studiosi stanno sviluppando, ma al momento non esiste ancora un software in grado di identificare in maniera certa un deep fake
Come difendersi quindi da questa valanga di disinformazione?
L’Unione Europea ha invece varato nel giugno del 2022 delle norme che obbligano le piattaforme ad agire contro deep fake e dintorni. Le stesse società che gestiscono i sistemi di intelligenza artificiale generativa potrebbero inoltre decidere di intervenire in maniera netta, per esempio impedendo ai loro algoritmi di rispondere a comandi che riportano i nomi di personalità politiche o di creare scene di violenza, arresti o altro.
A mio parare però le misure di tutela migliori derivano dall’alfabetizzazione digitale e dallo sviluppo di un pensiero critico. Alcune ricerche (dati di Eurobarometer) hanno infatti rilevato che in Italia circa il 53% della popolazione afferma di non saper riconoscere una fake news, percentuale sovrapponibile al 54% della popolazione italiani che ha competenze digitali molto basse.
Il pensiero critico consiste appunto nel saper analizzare informazioni, situazioni ed esperienze in modo oggettivo, distinguendo la realtà dalle proprie impressioni soggettive e i propri pregiudizi, significa riconoscere i fattori che influenzano pensieri e comportamenti propri ed altrui e rimanere lucidi nelle scelte. Una skill che sembra essere sempre meno utilizzata e che dovrebbe venire sviluppata fin da bambini.
Come fa ad esempio la Finlandia, che educa i bambini già dalla scuola dell’infanzia a riconoscere le fake news, misura che ha fatto diventare l’alfabetizzazione informatica e il forte pensiero critico una componente fondamentale e trasversale del curriculum nazionale, già dal 2016.
Il contrasto più grande alle fake news sono i cittadini, siamo noi. La misura di contrasto più efficace consiste senza dubbio nel ripristinare gli unici presidi possibili per limitare la diffusione di falsità, di complottismi e di propaganda indiscriminata: il dubbio, il metodo e l’intelligenza. Sono queste le carte che dobbiamo giocare per uscire dal pantano in cui ci siamo infilati. Ed è una cosa che dobbiamo fare noi, ognuno di noi, che non possiamo più demandare alla prossima generazione.