Tre esperti nel campo dell’identificazione dei deepfake hanno fornito la loro testimonianza di fronte alla sottocommissione del Senato riguardante privacy, tecnologia e diritto, discutendo le strategie con cui il Congresso potrebbe normare il settore dell’intelligenza artificiale, con un focus particolare sull’escalation dei deepfake nocivi. Questi ultimi sono contenuti audiovisivi o grafici ingannevoli, generati o alterati mediante l’uso di tecnologie AI.
A gennaio, è stato diffuso, tramite messaggio vocale automatizzato a migliaia di elettori, un deepfake audio che imitava la voce del presidente Joe Biden, invitando i democratici a non partecipare alle primarie del New Hampshire. Analogamente, sono stati creati deepfake che, sfruttando l’AI, “denudano” fotografie autentiche di donne e ragazze, sovrapponendo i loro volti su corpi nudi falsificati. Entrambe le tipologie di deepfake sono state oggetto di discussione concentratasi sulla disinformazione in vista delle elezioni del 2024.
Tra verifiche e sanzioni
Il senatore democratico Richard Blumenthal, capo della commissione, ha delineato un progetto di normativa del Congresso che prevederebbe verifiche indipendenti delle tecnologie AI prima della loro diffusione pubblica, nonché possibili sanzioni. Undici stati hanno promulgato leggi contro la falsa ingerenza elettorale. Altri hanno adottato misure legali per consentire azioni civili a tutela delle vittime di abusi tramite deepfake sessuali. Tuttavia, la legislazione federale su entrambi i fronti è rimasta in stallo sia alla Camera che al Senato, senza alcuna votazione, situazione che il senatore repubblicano Josh Hawley ha esortato a risolvere.
Il messaggio automatizzato attribuito a Biden nel New Hampshire è stata opera di un prestigiatore di strada con collegamenti a una campagna elettorale democratica concorrente. L’audio era stato generato utilizzando il software ElevenLabs, liberamente accessibile online. Nonostante presentasse una filigrana nascosta, proposta da molte grandi aziende tecnologiche come deterrente ai deepfake, questa è stata rimossa durante la creazione del messaggio vocale, rendendo l’audio ricevuto dagli elettori privo di tale segnale di autenticazione.