I contenuti falsi e fuorvianti creati dall’intelligenza artificiale stanno rapidamente passando da minaccia teorica a realtà sorprendente. La tecnologia per produrre registrazioni audio di persone che parlano sta migliorando costantemente ed è diventata ampiamente disponibile tramite una semplice ricerca online. La semplice esistenza di questa tecnologia e la difficoltà nel individuare i contenuti da essa creati stanno già causando caos. A gennaio, una chiamata robotica da parte di un falso Presidente Joe Biden ha preso di mira gli elettori democratici nel New Hampshire. Recentemente, Roger Stone ha utilizzato un programma di rilevamento dell’intelligenza artificiale nel tentativo di dissociarsi da una registrazione che sembrava contenere la sua voce. Inoltre, il sindacato del preside di una scuola superiore ha suggerito che forse l’IA era responsabile di una registrazione in cui sembrava fare commenti razzisti. La Regione sta ancora indagando su questo caso. Nonostante siano stati sviluppati numerosi strumenti e prodotti per cercare di rilevare l’audio generato dall’intelligenza artificiale, molti esperti hanno affermato che questi programmi sono intrinsecamente limitati e non forniranno a nessuno un modo infallibile per determinare rapidamente e in modo affidabile se l’audio che stanno ascoltando possa provenire da una persona reale.
Deepfake
I sistemi di rilevamento dei deepfake funzionano in modo molto diverso rispetto a come gli esseri umani ascoltano. Essi analizzano i campioni audio alla ricerca di artefatti come le frequenze mancanti, che spesso vengono lasciate indietro quando l’audio viene generato tramite codice. Spesso si concentrano su aspetti specifici del discorso, come il modo in cui l’oratore sembra respirare o come il tono della sua voce si alza e si abbassa. Roger Colman, Ben Colman, amministratore delegato di Reality Defender, ha dichiarato che non si potrà mai affermare al 100% la verità. La probabilità più alta è del 99%. Ha sottolineato che la vasta gamma di voci e linguaggi umani rende il lavoro difficile, poiché bisogna considerare ogni singola variabile, come regioni, lingue, dialetti ed età. Secondo Patrick Traynor, professore specializzato in informatica e reti telefoniche presso l’Università della Florida, la maggior parte dei programmi di rilevamento è addestrata per identificare gli algoritmi deepfake esistenti, ma non riesce a tenere il passo con le nuove innovazioni. Traynor ha affermato che l’apprendimento automatico è efficace nel riconoscere ciò che ha già visto, ma meno efficace nel ragionare su ciò che non ha mai visto.