OpenAI è stata citata in giudizio dalla famiglia di una delle vittime della sparatoria avvenuta nell’aprile 2025 alla Florida State University, un attacco in cui morirono due persone. La denuncia, presentata dalla vedova Vandana Joshi, sostiene che ChatGPT avrebbe avuto un ruolo diretto nel facilitare l’azione dell’attentatore, Phoenix Ikner, allora studente della FSU. Secondo l’accusa, Ikner avrebbe intrattenuto “numerose conversazioni” con il chatbot, condividendo immagini delle armi acquistate e ricevendo spiegazioni sul loro funzionamento, oltre a indicazioni su orari di maggiore affluenza nel campus.
La causa afferma che il sistema non sarebbe riuscito a riconoscere segnali di pericolo, né a interrompere interazioni che includevano riferimenti a sparatorie di massa, ideologie estremiste e domande su conseguenze legali. In alcuni passaggi, ChatGPT avrebbe persino fornito risposte percepite da Ikner come incoraggiamenti, alimentando — secondo la denuncia — le sue convinzioni violente. OpenAI respinge fermamente le accuse. Un portavoce ha definito “tragica” la sparatoria, ma ha ribadito che ChatGPT non è responsabile del crimine, sottolineando che le risposte fornite erano informazioni pubblicamente reperibili e che il modello non ha mai promosso attività illegali.
L’azienda afferma inoltre di aver collaborato con le autorità e di lavorare costantemente per rafforzare i sistemi di sicurezza e rilevamento di intenti dannosi. Il caso si inserisce in un contesto più ampio: negli ultimi mesi, diverse cause legali hanno accusato chatbot basati sull’IA di aver contribuito a episodi di violenza o comportamenti autolesionisti. Le autorità statunitensi stanno aumentando la pressione sulle aziende tecnologiche affinché migliorino le protezioni per gli utenti vulnerabili. In Florida, il procuratore generale ha aperto un’indagine penale su OpenAI, affermando che, se ChatGPT fosse una persona, “sarebbe accusato di omicidio”.




