OpenAI ha riferito che ChatGPT ha rifiutato più di 250.000 richieste di generazione di immagini dei candidati alle elezioni presidenziali statunitensi del 2024. Tra le richieste rifiutate c’erano quelle riguardanti il presidente eletto Donald Trump, la vicepresidente Kamala Harris, il presidente Joe Biden, il governatore del Minnesota Tim Walz e il vicepresidente eletto JD Vance. L’avanzamento dell’intelligenza artificiale generativa ha sollevato preoccupazioni sulla possibile influenza della disinformazione generata su varie elezioni globali del 2024. Secondo i dati di Clarity, azienda di apprendimento automatico, i deepfake sono aumentati del 900% rispetto all’anno precedente. Alcuni di questi video, secondo funzionari dell’intelligence USA, sono stati creati o finanziati da russi con l’intento di interferire nelle elezioni americane. In un rapporto di ottobre di 54 pagine, OpenAI ha dichiarato di aver interrotto oltre 20 operazioni ingannevoli globali che tentavano di sfruttare i suoi modelli. Le minacce includevano articoli di siti web generati dall’IA e post sui social media di account falsi. Il rapporto ha sottolineato che nessuna delle operazioni legate alle elezioni è riuscita a ottenere “coinvolgimento virale”. Nel blog, OpenAI ha affermato di non aver trovato prove che operazioni segrete mirate a influenzare le elezioni statunitensi attraverso i suoi prodotti siano riuscite a creare “un pubblico duraturo”. I legislatori sono particolarmente preoccupati per la disinformazione nell’era dell’IA generativa, iniziata alla fine del 2022 con il lancio di ChatGPT. I grandi modelli linguistici, ancora nuovi, continuano a produrre informazioni spesso inaccurate e inaffidabili. “Gli elettori non dovrebbero assolutamente fare affidamento sui chatbot AI per informazioni sul voto o sulle elezioni: – ha dichiarato alla CNBC Alexandra Reeve Givens, CEO del Center for Democracy & Technology -ci sono troppe preoccupazioni sulla loro precisione e completezza”.