53 start up specializzate in intelligenza artificiale operanti in Europa parteciperanno al secondo step di “Open Loop”, il progetto ideato da Meta per dare un contributo alla stesura dell’Artificial Intelligence Act. L’Europa, prima nel mondo, è fermamente convinta della necessità di individuare le linee guida per la regolamentazione e la mitigazione dei rischi di un uso arbitrario di questa tecnologia che sta rivoluzionando le nostre vite, ponendo dei freni a un uso che potrebbe violare alcuni diritti, come quello alla privacy, in vigore nell’area UE. Ne abbiamo parlato con Colum Donnelly, Business Development Manager di Asc27, una delle start up selezionate da Meta.
Quali sono le applicazioni dell’intelligenza artificiale considerate “inadeguate” dalla Commissione europea? Quali sono i rischi che si possono correre senza una regolamentazione?
Sin dai primi passi dell’AI Act i rischi sono stati classificati in tre categorie: basso rischio, come i chatbots, alto rischio, come i sistemi per infrastrutture critiche oppure sistemi usati dalle forze di polizia, e, infine, i sistemi che hanno un rischio inaccettabile: sistemi di identificazione biometrica in tempo reale, tutte le forme, cioè, di social scoring da parte di autorità pubbliche e sistemi basati su tecniche subliminali o manipolative che possono arrecare un danno alle persone.
L’intelligenza artificiale è già parte delle nostre vite da tempo e si sta rivelando uno strumento sempre più importante in numerosi settori delle amministrazioni pubbliche e delle aziende private. Come in ogni altro ambito regolato dal diritto, il giovane campo dell’intelligenza artificiale ha bisogno di principi fondamentali e di limiti per svilupparsi in armonia con la nostra società e nel solco dei nostri diritti.
La principale difficoltà nella stesura dell’Artificial Intelligence Act sta nell’individuare la giusta mediazione tra diritti considerati da noi prioritari, come la privacy, e un uso senza regole di questa tecnologia. Quali sono i mercati che invece si pongono meno o affatto questo problema?
La ricerca dell’equilibrio tra innovazione e limiti giuridici è una sfida globale: prendendo come riferimento Open Loop, il programma è attualmente parte della conversazione nell’Unione Europea, negli Stati Uniti, in Messico, Brasile, Uruguay, in India e a Singapore. Gli occhi di tutti sono puntati sull’Unione Europea, sia per la qualità del lavoro dal punto di vista giuridico e dell’innovazione sia perché rappresenta un mercato di primaria importanza per qualunque azienda. Ciò che verrà deciso in Europa avrà un forte impatto nel modellare la normativa che regolerà l’IA in tutto il mondo.
Tra i nodi critici che andranno risolti ci sono la trasparenza delle procedure, il rapporto tra autonomia delle macchine e supervisione umana, i requisiti della documentazione tecnica. In pratica, in che consistono queste tre macroaree?
Manteniamo l’attenzione sul rischio: l’obiettivo di regolamentare aspetti come la qualità dei dati, come deve essere realizzata la documentazione tecnica e con quale livello di dettaglio garantendo la trasparenza by design e il controllo da parte di un operatore umano sono gli elementi considerati cruciali per garantire la sicurezza delle soluzioni da parte degli utilizzatori finali. Chiaramente, maggiore è il livello di rischio, maggiori sono i limiti giuridici che saranno applicati.
Arrivare ad una legislazione sull’IA è nell’interesse di tutti: dei cittadini, delle pubbliche amministrazioni, delle imprese e del terzo settore, oltre che delle aziende che sviluppano le soluzioni. Un quadro normativo coerente ed equilibrato è in grado di garantire un livello di qualità alto delle soluzioni di IA in un contesto di sana competitività.
Il gruppo di Open Loop vuole dare il suo apporto ai legislatori perché le imprese europee che sviluppano know how nel campo dell’intelligenza artificiale non siano eccessivamente penalizzate da regole troppo stringenti, che potrebbero comprometterne la competitività in un mercato globale molto libero. Quali sono le maggiori richieste che gli operatori del settore presenteranno alla Commissione europea?
Se fossimo su Twitter direi che l’hashtag più appropriato è #equilibrio. Un quadro normativo debole ci porterebbe ad una situazione da wild west dell’IA, senza protezioni per la società e le persone. Un quadro che trovo estremamente preoccupante. Dall’altro lato, una normativa troppo rigida creerebbe un collo di bottiglia alla capacità di innovare delle aziende basate nell’Unione Europea, con il rischio di non risultare competitivi nel settore a livello globale.
Esiste un equilibrio tra questi due estremi, perciò non deve sorprendere se la gestazione dell’AI Act, iniziata nel 2018, è così lunga. L’Unione Europea è stata molto attenta ad ascoltare e comprendere tutte le istanze che sono giunte dal mondo politico, sociale, accademico e delle imprese.
Uno dei temi che ho trovato più interessanti nel corso della partecipazione ad Open Loop è la necessità – espressa esplicitamente da tutti i partecipanti – di avere delle definizioni precise e condivise che non lascino spazio per dubbi e incomprensioni su aspetti delicati come, ad esempio, la tassonomia degli attori dell’IA, in modo che le parole riflettano chiaramente la granularità del mondo dell’intelligenza artificiale.
A che punto è la stesura dell’Artificial Intelligence Act?
Nelle ultime settimane l’AI Act ha proseguito il proprio percorso con la posizione del Consiglio UE sulla legislazione di riferimento per la regolamentazione dell’intelligenza artificiale e subito dopo il testo è stato trasmesso agli ambasciatori degli stati membri per l’approvazione. Il prossimo appuntamento è martedì 6 dicembre, quando si riunirà il Consiglio TTE (Telecomunicazioni) e che fornirà il proprio orientamento generale sul documento.
Le discussioni parlamentari sono guidate da due commissioni e correlatori, ovvero la Commissione per il mercato interno e la protezione dei consumatori – guidata dall’eurodeputato italiano Brando Benifei – e la Commissione per le libertà civili, la giustizia e gli affari interni – guidata dall’eurodeputato rumeno Dragoș Tudorache.
Il testo definitivo potrebbe essere sottoposto all’approvazione del Parlamento UE nella prima metà del 2023.