Il governo canadese ha annunciato l’apertura di un’indagine ufficiale per chiarire se OpenAI fosse a conoscenza di informazioni rilevanti prima della sparatoria avvenuta a Tumbler Ridge, nella Columbia Britannica, e se tali dati avrebbero potuto contribuire a prevenire l’attacco.
La decisione arriva dopo che alcuni parlamentari hanno sollevato dubbi sulla gestione dei contenuti generati dagli utenti e sulla capacità delle piattaforme di intelligenza artificiale di individuare segnali di rischio all’interno delle conversazioni pubbliche e private. Secondo fonti governative, l’inchiesta sarà condotta dall’Ufficio del Commissario per la Privacy, con il supporto di esperti di sicurezza digitale e analisi comportamentale.
L’attenzione degli investigatori si concentra su eventuali interazioni online dell’autore della sparatoria e sulla possibilità che messaggi contenenti minacce, ideazioni violente o comportamenti anomali siano stati elaborati da sistemi di IA senza essere segnalati alle autorità competenti.
OpenAI, da parte sua, ha dichiarato di collaborare pienamente con le istituzioni canadesi e di non aver ricevuto alcuna informazione preventiva che potesse indicare un rischio imminente.
L’azienda ha ribadito che i propri modelli non monitorano attivamente gli utenti e che eventuali contenuti problematici vengono gestiti attraverso sistemi di moderazione automatica e interventi umani, nel rispetto delle normative sulla privacy.
L’indagine si inserisce in un dibattito più ampio sul ruolo delle piattaforme di IA nella prevenzione della violenza e sulla responsabilità delle aziende tecnologiche nel trattare contenuti sensibili.
Alcuni esperti sottolineano che attribuire alle IA un compito di sorveglianza preventiva rischia di creare aspettative irrealistiche, mentre altri ritengono che i modelli linguistici, proprio per la loro diffusione, debbano essere integrati in strategie più ampie di sicurezza pubblica.



