Il governo britannico ha annunciato un inasprimento delle norme sulla sicurezza online rivolte ai chatbot basati su intelligenza artificiale, in risposta alle crescenti preoccupazioni su disinformazione, manipolazione e rischi per i minori. La decisione arriva mentre l’uso di sistemi conversazionali si diffonde rapidamente in scuole, uffici e piattaforme digitali, rendendo sempre più urgente definire responsabilità chiare per gli sviluppatori e per le aziende che li integrano nei propri servizi. Downing Street ha confermato che i chatbot rientreranno esplicitamente nel perimetro dell’Online Safety Act, la legge approvata nel 2023 per regolamentare i contenuti dannosi sul web. Secondo le nuove linee guida, le aziende dovranno dimostrare che i loro sistemi adottano misure efficaci per prevenire la generazione di contenuti illegali o pericolosi, come istruzioni su attività rischiose, materiale violento o informazioni fuorvianti su salute e politica. I regolatori potranno imporre sanzioni significative in caso di violazioni, incluse multe milionarie e, nei casi più gravi, restrizioni operative. Il governo sostiene che la stretta non mira a frenare l’innovazione, ma a garantire che lo sviluppo dell’AI avvenga in un quadro di sicurezza e trasparenza. L’annuncio ha suscitato reazioni contrastanti nel settore tecnologico. Alcune aziende hanno accolto positivamente la chiarezza normativa, sottolineando che standard più rigorosi possono aumentare la fiducia del pubblico. Altre temono che requisiti troppo stringenti possano rallentare la ricerca e penalizzare le startup britanniche rispetto ai concorrenti internazionali. Le associazioni per la tutela dei minori, invece, hanno definito la misura “un passo necessario”, ricordando che i chatbot sono già utilizzati da milioni di adolescenti. Il Regno Unito punta a posizionarsi come leader globale nella regolamentazione dell’intelligenza artificiale, bilanciando innovazione e sicurezza.



