Dopo l’aumento online delle immagini e dei video pornografici falsi, Google ha annunciato nuove misure per aiutare le vittime e ridurre la visibilità dei deepfake nei risultati di ricerca. L’azienda declasserà i siti che ospitano frequentemente video falsi sessualmente espliciti non consensuali, facendoli apparire più in basso nei risultati. I deepfake sono media falsi creati con strumenti di intelligenza artificiale che spesso “scambiano” il volto di una vittima su un corpo in un video pornografico esistente. Una pratica che colpisce soprattutto donne e ragazze, inclusi personaggi pubblici e studentesse. Nel 2023, sono stati pubblicati più deepfake sessualmente espliciti non consensuali che in tutti gli anni precedenti combinati. Google ha dichiarato mercoledì che filtrerà i contenuti espliciti dalle ricerche dopo che le vittime avranno richiesto la rimozione tramite un modulo online.
La novità
Attualmente, le vittime devono segnalare ogni URL contenente le immagini. Google non esegue scansioni proattive per individuare nuovi deepfake, rimuovendoli solo se segnalati correttamente. Con la ricerca sicura disattivata, query come “deepfake” mostrano materiale tra i primi risultati. Ora il motore di ricerca classificherà gli articoli di notizie pertinenti al di sopra dei falsi, anche quando si cerca il nome di una persona e la parola “deepfake”. Un sito importante per falsi sessualmente espliciti non consensuali ha utilizzato varie tattiche per monetizzare il materiale. A giugno, il presidente della magistratura del Senato Dick Durbin ha inviato una lettera al CEO di Google chiedendo dettagli su come intende combattere i deepfake. La legislazione federale introdotta da Durbin consentirebbe alle vittime di citare in giudizio i responsabili. Approvata dal Senato, attende ora il voto alla Camera