domenica, 8 Settembre, 2024
Esteri

Sempre più materiale pedopornografico creato dall’Intelligenza Artificiale viene diffuso su internet

Un rapporto pubblicato lunedì evidenzia un aumento del materiale pedopornografico generato dall’intelligenza artificiale online. La Internet Watch Foundation (IWF) del Regno Unito ha sottolineato i pericoli della tecnologia AI, che permette a chiunque di creare video deepfake convincenti. I deepfake sono media digitali che permettono di “scambiare il volto” di una persona con un altro in un video diverso. L’IWF ha scoperto 3.512 immagini e video CSAM creati con AI, un aumento del 17% rispetto all’autunno 2023. “Il realismo e la gravità stanno aumentando – ha dichiarato Dan Sexton, direttore tecnico dell’IWF – Se la tecnologia migliora, potrebbe tradursi in un uso illegale”. L’aumento dei deepfake pedopornografici evidenzia le difficoltà per regolatori, aziende tecnologiche e forze dell’ordine nel prevenire danni. “L’aumento di materiale pedopornografico falsificato potrebbe rendere più difficile rintracciare i pedofili – ha affermato David Finkelhor, direttore del Crimes Against Children Research Center – Una volta alterate, le immagini diventano più difficili da bloccare”. Il Dipartimento di Giustizia degli Stati Uniti ha annunciato accuse contro un uomo per aver usato l’intelligenza artificiale per creare CSAM di minori.

L’accusa

“La tecnologia potrebbe rendere difficile presentare accuse severe contro i trafficanti di CSAM – ha affermato Paul Bleakley, professore associato di giustizia penale – È difficile stabilire se chi inserisce il prompt stia creando il CSAM”. L’FBI ha affermato di prendere sul serio i crimini contro i minori e di investigare su ogni accusa con varie agenzie delle forze dell’ordine. “I malintenzionati usano tecnologie per sfruttare foto e video, spesso presi dai social media – ha scritto l’FBI. “Molte vittime, tra cui minorenni, non sanno che le loro immagini sono state manipolate e diffuse fino a quando non vengono avvisate”. Le foto vengono poi inviate direttamente alle vittime per sextortion o molestie, o scoperte autonomamente su Internet”.

Condividi questo articolo:
Sponsor

Articoli correlati

IA non deve sostituire i medici

Redazione

La trilaterale europea sull’Intelligenza artificiale

Ettore Di Bartolomeo

Risarcimenti reali per danni da Intelligenza artificiale

Alessandro Alongi

Lascia un commento

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:
Usando questo form, acconsenti al trattamento dei dati ivi inseriti conformemente alla Privacy Policy de La Discussione.