La piattaforma X, già al centro di un intenso scrutinio internazionale, affronta una nuova ondata di pressioni regolatorie dopo che le autorità francesi hanno perquisito gli uffici parigini dell’azienda nell’ambito di un’indagine su presunte violazioni delle norme sulla moderazione dei contenuti e sulla trasparenza algoritmica. L’operazione, condotta dall’Autorité de la Concurrence con il supporto della polizia giudiziaria, rientra in un’inchiesta avviata mesi fa e legata al sospetto che X non abbia rispettato alcuni obblighi previsti dal Digital Services Act (DSA), la normativa europea che impone alle grandi piattaforme standard più severi in materia di sicurezza online. Mentre in Francia si procede con accertamenti sul campo, nel Regno Unito l’attenzione si concentra su Grok, il modello di intelligenza artificiale sviluppato da xAI e integrato progressivamente nell’ecosistema di X. L’Office of Communications (Ofcom) ha annunciato l’apertura di una nuova indagine per verificare se l’uso di Grok nella generazione e nella diffusione di contenuti rispetti le regole previste dall’Online Safety Act, in particolare quelle relative alla prevenzione della disinformazione e alla tutela dei minori. Secondo fonti governative britanniche, l’inchiesta mira a chiarire come Grok gestisca richieste sensibili, quali contenuti politici, informazioni sanitarie e materiale potenzialmente dannoso. L’Ofcom vuole inoltre capire se l’integrazione dell’IA possa influenzare la visibilità dei post o alterare dinamiche di engagement senza adeguata trasparenza verso gli utenti. X e xAI hanno dichiarato di collaborare con le autorità, ribadendo che Grok è progettato per operare nel rispetto delle normative locali e che l’azienda sta investendo in sistemi di sicurezza avanzati. Tuttavia, le indagini simultanee in due Paesi europei alimentano interrogativi sul rapporto tra piattaforme digitali, intelligenza artificiale e regolamentazione pubblica.



