Il CEO di OpenAI, Sam Altman, ha rilasciato una dichiarazione pubblica in cui si scusa per la sparatoria di Tumbler Ridge, l’episodio che ha riacceso il dibattito sulla responsabilità delle aziende tecnologiche nell’uso improprio dell’intelligenza artificiale. Pur non essendo emerse prove che colleghino direttamente i sistemi di OpenAI all’azione dell’attentatore, Altman ha riconosciuto che l’evento ha sollevato interrogativi legittimi sulla sicurezza, sulla moderazione dei contenuti e sulla capacità dei modelli linguistici di intercettare segnali di rischio.
“Quando accade una tragedia, anche se non ne siamo la causa, sentiamo il dovere morale di ascoltare, capire e migliorare”, ha dichiarato. Le sue parole arrivano in un momento di forte pressione politica: il governo canadese ha avviato verifiche interne e diversi parlamentari chiedono maggiore trasparenza sulle interazioni tra utenti e piattaforme di IA. Altman ha assicurato piena collaborazione con le autorità e ha annunciato un rafforzamento dei protocolli di sicurezza, inclusi nuovi sistemi di rilevamento di contenuti violenti e procedure più rigide per l’uso dei modelli in contesti sensibili. Le scuse, accolte con reazioni contrastanti, hanno diviso l’opinione pubblica.
Alcuni osservatori le considerano un gesto necessario per ricostruire la fiducia, mentre altri le giudicano un tentativo di contenere l’impatto reputazionale senza affrontare il nodo centrale: la crescente dipendenza da strumenti che possono amplificare vulnerabilità sociali e individuali. Per OpenAI, la vicenda rappresenta un banco di prova cruciale. L’azienda si trova a dover bilanciare innovazione e responsabilità in un settore in cui ogni incidente rischia di trasformarsi in un caso politico globale. Altman, nel suo messaggio, ha ribadito che l’obiettivo dell’IA deve essere “aiutare, non ferire”. Resta da capire se basterà a rassicurare governi e cittadini in un momento in cui la tecnologia corre più veloce della regolamentazione.





