martedì, 30 Aprile, 2024
Esteri

Udienza al Senato Usa con esperti di deepfake per parlare di elezioni e abusi sessuali

Tre esperti nel campo dell’identificazione dei deepfake hanno fornito la loro testimonianza di fronte alla sottocommissione del Senato riguardante privacy, tecnologia e diritto, discutendo le strategie con cui il Congresso potrebbe normare il settore dell’intelligenza artificiale, con un focus particolare sull’escalation dei deepfake nocivi. Questi ultimi sono contenuti audiovisivi o grafici ingannevoli, generati o alterati mediante l’uso di tecnologie AI.

A gennaio, è stato diffuso, tramite messaggio vocale automatizzato a migliaia di elettori, un deepfake audio che imitava la voce del presidente Joe Biden, invitando i democratici a non partecipare alle primarie del New Hampshire. Analogamente, sono stati creati deepfake che, sfruttando l’AI, “denudano” fotografie autentiche di donne e ragazze, sovrapponendo i loro volti su corpi nudi falsificati. Entrambe le tipologie di deepfake sono state oggetto di discussione concentratasi sulla disinformazione in vista delle elezioni del 2024.

Tra verifiche e sanzioni

Il senatore democratico Richard Blumenthal, capo della commissione, ha delineato un progetto di normativa del Congresso che prevederebbe verifiche indipendenti delle tecnologie AI prima della loro diffusione pubblica, nonché possibili sanzioni. Undici stati hanno promulgato leggi contro la falsa ingerenza elettorale. Altri hanno adottato misure legali per consentire azioni civili a tutela delle vittime di abusi tramite deepfake sessuali. Tuttavia, la legislazione federale su entrambi i fronti è rimasta in stallo sia alla Camera che al Senato, senza alcuna votazione, situazione che il senatore repubblicano Josh Hawley ha esortato a risolvere.

Il messaggio automatizzato attribuito a Biden nel New Hampshire è stata opera di un prestigiatore di strada con collegamenti a una campagna elettorale democratica concorrente. L’audio era stato generato utilizzando il software ElevenLabs, liberamente accessibile online. Nonostante presentasse una filigrana nascosta, proposta da molte grandi aziende tecnologiche come deterrente ai deepfake, questa è stata rimossa durante la creazione del messaggio vocale, rendendo l’audio ricevuto dagli elettori privo di tale segnale di autenticazione.

Condividi questo articolo:
Sponsor

Articoli correlati

La criminalità informatica cresce anche grazie all’intelligenza artificiale

Francesco Gentile

Il Parlamento europeo chiede la regolamentazione dello streaming musicale

Valerio Servillo

Deepfake rischi gravi e utili finzioni

Alessandro Alongi

Lascia un commento

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:
Usando questo form, acconsenti al trattamento dei dati ivi inseriti conformemente alla Privacy Policy de La Discussione.