sabato, 20 Aprile, 2024
Hi-Tech

Intelligenza artificiale. Regole Ue in arrivo

La Intelligenza Artificiale è una tecnologia che pervaderà tutta la nostra vita, migliorandone la qualità, dalla salute, alla conoscenza, ai servizi. Ma le sue innumerevoli applicazioni, a cominciare da quelle in campo bellico, potrebbero comportare dei rischi.

Per questo l’Europa ha deciso di dotarsi di un testo di riferimento che ponga le basi per una regolamentazione al fine di prevenire possibili danni. Se ne è discusso in un Workshop a Roma con istituzioni italiane e internazionali e rappresentanti dell’industria high tech.

Noi non ce ne accorgiamo ma siamo “circondati” da applicazioni potenziate dall’intelligenza artificiale, dalle mappe interattive che usiamo quotidianamente ai motori di ricerca sempre più personalizzati; dagli autocorrettori ai pagamenti digitali. L’Intelligenza artificiale è una tecnologia che sta già cambiando mercati e istituzioni ma riuscire ad ottenere una intelligenza sintetica simile alla nostra può comportare anche dei rischi.

Per questo l’Europa ha deciso di dotarsi di un Regolamento sull’intelligenza artificiale (AI), l’Artificial Intelligence Act, al momento solo una proposta ma che dovrebbe giungere a compimento entro due anni. La Commissione europea ha dato incarico ad un gruppo di tecnici di alto profilo, il Cen/Clc – Jtc21 –

Artificial Intelligence, the European Committee for Standardization, di lavorare sulle linee guida per la mitigazione dei rischi connessi all’utilizzo dell’Intelligenza artificiale ed arrivare, così, alla stesura di un Libro bianco al quale dovranno far riferimento tutti i Paesi membri.

Il 4-5 luglio 2022 il Cen/Clc Jtc21 Ahg8 – Artificial Intelligence, the European Committee for Standardization si è riunito a Roma, presso il circolo degli ufficiali delle forze armate d’italia, per discutere, delle linee guida comunitarie relative alle frontiere della ricerca applicata all’Intelligenza Artificiale e alla mitigazione dei rischi ad essa connessa.

Un evento che si è svolto a porte chiuse ma con un momento di confronto pubblico, il workshop “AI risks mitigation”, con istituzioni italiane e europee e rappresentanti dell’industria impegnata sulla AI e la cyber-sicurezza, un’occasione per offrire una panoramica di opinioni o prospettive dal punto di vista Istituzionale, tecnologico e industriale, sul tema dell’IA a livello europeo.

“Per le applicazioni di IA ad alto rischio, la mitigazione del rischio è direttamente correlata alla mitigazione del danno socio-psico-tecno-fisico – ha sottolineato Leon Kester, membro del Cen/Clc – Jtc21 -. Abbiamo sviluppato un metodo chiamato ciclo di feedback socio-tecnologico che facilita tutte le parti interessate a formalizzare gli obiettivi del sistema, incluso il modello del danno.

È importante notare che anche l’attuale tecnologia di intelligenza artificiale più avanzata non è in grado di comprendere la moralità umana, quindi i modelli di danno artificiale utilizzati dall’autorità di regolamentazione sono e saranno un approssimazione; possiamo solo lottare per approssimazioni migliori. In secondo luogo, la creatività umana è fondamentalmente imprevedibile, quindi noi (come esseri umani) dobbiamo continuare ad aggiornare continuamente il regolatore e il modello del danno”.

Ad aprire i lavori, il deputato Angelo Tofalo, esperto di difesa e sicurezza. “Dal punto di vista normativo, siamo riusciti ad arrivare ad importanti risultati. Anche se siamo in notevole ritardo – ha commentato l’ex sottosegretario alla Difesa -. Da qui a due anni i Paesi sovrani Ue dovranno adeguarsi alle nuove normative. La difesa è più avanti di altri campi, ma dal punto di vista del legislatore c’è grande difficoltà a trattare di questi temi specifici. C’è una forte polarizzazione tra Usa e Cina e alla fine la vera battaglia sarà sul modello di democrazia e società digitale che si imporrà. Per questo i Governi devono fare squadra con gli addetti ai lavori per rendere tutto più agevole, altrimenti come Italia e Ue rischiamo di rimanere schiacciati da questa polarizzazione”.

Antonio Conte, Policy Officer della Commissione Ue, ha spiegato come la Commissione sta lavorando sulle strategie di IA: “I benefici di questa tecnologia sono chiari a tutti. Dall’industria alla robotica. Ma l’uso dell’IA ha anche dei rischi in materia di sicurezza e democrazia. L’ambizione della Commissione è ridurre gli alti rischi di questa tecnologia”.

“La mitigazione del rischio collegato all’applicazione e all’utilizzo dell’intelligenza artificiale è un tema oggi molto importante – ha dichiarato Nicola Grandis, Ceo di ASC27, una delle startup innovative più promettenti nel panorama italiano -, e su questo tema tutto il mondo guarda all’Europa. Per questo abbiamo invitato qui a Roma il gruppo di lavoro incaricato dalla Commissione europea di scrivere un Libro bianco per i cittadini e le aziende che dovranno utilizzare nel futuro questo strumento emergente. Le norme per la mitigazione del rischio – ha spiegato Grandis – riguarderanno principalmente la protezione degli individui, dei dati sensibili. Ad esempio, si vogliono evitare problematiche relative a persone che chiedono un prestito in banca e se lo vedono negato senza un motivo”.

Nel corso dell’evento sono intervenuti anche Carla Sirocchi, direttore tecnico di Uninfo (Ente Federato UNI per la normazione delle Tecnologie Informatiche e loro applicazioni), Renaud Di Francesco, direttore Europe Technology Standards Office, Sony Europe e Luigi Carrozi, funzionario dell’Autorità Garante Protezione Dati Personali. “Il regolamento vuole rilanciare un approccio bilanciato tra le tecnologie di IA e la protezione dei diritti umani e, quindi, della privacy – ha detto Carrozi – i dati alimentano lo sviluppo della società dell’informazione, ma l’UE deve anche salvaguardare i diritti dei cittadini. L’obiettivo è sempre quello di proteggere i soggetti, le persone fisiche che sono impattate dai sistemi di IA. L’autorità ha l’indipendenza e la competenza per trattare queste questioni”.

Nel secondo panel, dedicato agli interventi tecnici, hanno partecipato al dibattito Roberto Saracco, chair della Symbiotic Autonomous Systems Initiative di IEEE-FDC; Marco Braccioli, VP Defence & Cybersecurity di DigitalPlatforms; l’imprenditore Andrea Conte; Alessandro Massa, responsabile dei laboratori aziendali di ricerca denominati ‘Leonardo Labs’; Stefano Martinaglia, Corporate Business Development – Head of Smart Cities & IoT Initiatives presso FINCANTIERI S.p.A e Nicola Grandis.

Condividi questo articolo:
Sponsor

Articoli correlati

Cresce il numero dei giovani agricoltori: +13% negli ultimi 10 anni

Paolo Fruncillo

Sostenere l’Ucraina oggi per non combattere la Russia domani

Renato Caputo

Giornata dedicata ai messaggeri di pace nel mondo

Valerio Servillo

Lascia un commento

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:
Usando questo form, acconsenti al trattamento dei dati ivi inseriti conformemente alla Privacy Policy de La Discussione.