Nel dibattito pubblico sulla Intelligenza artificiale si segnalano, spesso astrattamente, alcuni rischi insiti nell’uso della tecnologia in assenza di una etica da parte di chi la programma. La Russia ci sta fornendo un esempio concreto di quello che si vuole intendere con la parola “rischi”, come segnala il Canadian Institute of Ukrainian Studies dell’Università di Alberta. L’IA può, infatti rappresentare il “braccio armato” della disinformazione di massa, permettendo di massimizzare intere campagne di comunicazione attraverso l’utilizzo dei dati degli utenti raccolti sulle piattaforme social e la diffusione di contenuti personalizzati con un micro-targeting altamente mirato, al fine di influenzare l’opinione pubblica nella direzione voluta. Questa “non è una novità – afferma Oleksandr Pankieiev, ricercatore del Canadian Institute of Ukrainian Studies -. La Russia lavora da otto anni per condizionare il suo pubblico in vista della guerra contro l’Ucraina e la Nato”. Nella fattispecie, questo ruolo è stato affidato all’Internet Research Agency (Ira), con base a San Pietroburgo, nota anche come “la fabbrica di troll” e finanziata, tra gli altri, dal capo del Gruppo Wagner, Yevgeny Prigozhin. Dopo il fallito golpe, Prigozhin ha annunciato la chiusura della sua holding di cui faceva parte anche la fabbrica di fake news, ma sicuramente morto un Papa se ne può fare un altro.
La potenza della creazione di deepfake, cioè contenuti multimediali manipolati che sembrano autentici, non va assolutamente sottovalutata. Putin non potrebbe portare avanti la sua invasione dell’Ucraina senza il consenso della popolazione russa. L’IA permette di creare video o audio in cui il volto o la voce di una persona sono sostituiti con quelli di un’altra persona o addirittura generati artificialmente, rendendo impossibile distinguere il vero dal falso. Secondo la ricercatrice senior di Harvard, Aleksandra Przegalinska, i deep fake sono diventati una vera e propria specialità russa, tanto che il Cremlino ha creato molti profili falsi di propaganda sulle piattaforme social come Facebook, Reddit, TikTok o l’app di social media controllata dallo Stato, Vkontakte. In uno di questi profili si vedeva un influencer ucraino celebrare Putin come “il salvatore” e in un altro addirittura il presidente ucraino, Volodymyr Zelensky, annunciare ai suoi connazionali la resa.
Un’indagine del dipartimento della Giustizia statunitense denunciò che nel 2016 l’Internet Research Agency russa riuscì addirittura a interferire nella campagna elettorale statunitense appoggiando la candidatura e favorendo l’elezione di Donald Trump a discapito di Hillary Clinton. Accuse che furono avallate anche dall’inchiesta del procuratore speciale statunitense Robert Mueller, a capo dell’indagine sulle presunte interferenze russe nella campagna elettorale americana, e dalle testimonianze di ex impiegati della fabbrica. Quest’ultimi raccontarono il lavoro indefesso che può nascondersi dietro la guerra invisibile condotta con l’Intelligenza Artificiale. Nella “fabbrica di troll” lavoravano giorno e notte per creare account di Twitter e Facebook con i quali far circolare notizie false e per organizzare eventi e manifestazioni ovunque fosse utile e possibile. I messaggi e i destinatari naturalmente erano diversi: c’erano i troll dedicati al pubblico russo e quelli che invece lavoravano in inglese, per entrare in contatto direttamente con gli elettori americani.
Modificare espressioni facciali e tono della voce, creando dal nulla discorsi mai pronunciati, attribuendo a personalità influenti della politica e della società cose mai state dette a fini propagandistici non sono traguardi recenti. I primi esperimenti risalgono all’epoca dell’ex presidente Usa Obama, ma Putin ne ha fatto una vera e propria arma di disinformazione di massa. Ma è evidente che chi di manipolazione ferisce, di manipolazione può perire. E così anche il capo del Cremlino ne è stato vittima in occasione della visita del presidente cinese a Mosca. È stato, infatti, immortalato in una foto falsa, modificata ad arte, inginocchiato ai piedi del capo di Stato cinese, Xi Jinping, nell’atto di baciargli le mani. Immagine che ha fatto presto il giro dei social soprattutto in Polonia e Ucraina. Fatti che dovrebbe bastare ad aprire una profonda riflessione sull’uso distorto di uno strumento che potrebbe rivelarsi fondamentale per migliorare l’informazione se usato secondo linee guida internazionali condivise e rigidamente normate.