sabato, 27 Aprile, 2024
Attualità

AI. È artificiale ma non è ancora intelligente

Intervista all’ingegnere informatico Marco A. L. Calamari

La cessione dei nostri dati alle comunità social deve farci molto di più paura di questa nuova tecnologia

Continuiamo il nostro viaggio nel mondo dell’Intelligenza Artificiale per comprenderne potenzialità e rischi, soprattutto per quanto riguarda le nostre cessioni di dati sensibili in rete. A guidarci questa volta è l’ingegnere Marco Calamari, sviluppatore di software per grandi aziende e che da circa venti anni si occupa delle problematiche legate alla privacy e ai dati quando vengono usati su internet e in generale nei sistemi informativi.

Per lei che è un ingegnere del settore ITC, un addetto ai lavori dunque, cos’è l’intelligenza artificiale, come vive questa nuova tecnologia?
Il problema con l’intelligenza artificiale è che il termine che si usa per indicarla è di per sé fuorviante. Quando negli Anni ‘60 e ‘70 i primi storici ricercatori di informatica stavano cercando di capire come utilizzare i computer, una delle domande che si sono posti è: “i computer diventeranno mai intelligenti? Avranno mai un’intelligenza artificiale propria?”. Chiamandola “intelligenza artificiale” si è voluto, dunque, indicare una direzione di uno sviluppo futuro, un punto all’infinito verso cui tendere, il tentativo di rendere il computer capace di interagire con gli esseri umani in maniera intelligente. Il termine è molto affascinante e purtroppo suggerisce il fatto che una cosa che è “intelligenza artificiale” sia intelligente, cosa che non è assolutamente vera, perché si tratta solo di un computer. Fino a quando i computer non diventeranno intelligenti e qualcuno non riuscirà a programmare un’intelligenza artificiale generale, in grado di comprendere la semantica, il significato, il contesto e saper parlare a una persona, per ricevere domande e dare risposte corrette, non si può parlare di “intelligenza artificiale”. Il grosso pericolo è come oggi viene propagandata e anche, ahimè, utilizzata.

Però, negli ultimi anni sono stati fatti notevoli progressi dal punto di vista tecnologico…
Saltando a piè pari 70 anni di ricerca nel settore e arrivando direttamente a quelli che si chiamano Large Language model, cioè grandi modelli di linguaggio, ci troviamo in un settore dell’Intelligenza artificiale vicina al suo nome: ci sono dei sistemi molto bravi a scrivere, molto bravi a formare un linguaggio, molto bravi a interagire tramite il linguaggio. Ma è solo e unicamente questo. Che cosa vuol dire? Vuol dire che se anche un certo GPT ascoltando una mia domanda, cioè ricevendo da me un linguaggio in ingresso, mi dà una risposta ben scritta rispetto alle regole grammaticali, che sembra contenere un significato e che sembra sia giusta, in realtà GPT non ha la minima comprensione, non soltanto del significato, ma anche della semantica di un discorso, riesce solo a mettere in fila parole in modo che sembrino credibili.

Ecco ingegnere, vogliamo spiegare meglio quindi quali sono gli usi corretti dell’intelligenza artificiale e quali quelli scorretti?
Molto semplice. Considerando l’intelligenza artificiale nei suoi vari aspetti al pari di un normale attrezzo, bisogna usarlo per quello che è in grado di fare, per quello per cui è stato progettato. Quindi, se io ho una chiave inglese e la uso per montare e smontare i tubi del lavandino, in quello mi è di grandissimo aiuto. Se, invece, io la uso per piantare un chiodo è facile che me la dia sulle mani e che spaccherò l’utensile e forse anche il muro. Con l’intelligenza artificiale, che non è di un solo tipo e non è solo ChatGPT, ma sono anche i sistemi esperti, le reti neurali, i sistemi di Deep learning, è importante avere presente cosa è in grado di fare l’attrezzo e utilizzarlo solo per quello. ChatGPT, come dicevo prima, è un modello di linguaggio e quindi sa manipolare il linguaggio, non dare risposte. È sicuramente molto interessante se uno deve fare un riassunto, se deve tradurre un linguaggio in un altro. I modelli di linguaggio sono tool molto importanti, amplificano la forza di una persona, possono essere molto più produttivi e se li si usa correttamente danno prodotti giusti. Ma se io li uso come un oracolo, cioè come qualche cosa a cui faccio una domanda aspettandomi la risposta giusta, sto semplicemente usando lo strumento sbagliato. Lo ripeto, possono fornirmi una risposta credibile, una risposta che rispetta le regole grammaticali, che ha persino una sfumatura per cui sembra scritta da un certo autore, ma siccome non sanno niente e non hanno una comprensione di quello che gli sto chiedendo, se mi forniscono una risposta corretta è un puro caso.

Lei è anche un esperto di cybersicurezza. In questo settore, invece, l’intelligenza artificiale può molto, giusto?
Può molto, ma sempre se usata nel contesto. Per esempio, se io devo prevenire intrusioni informatiche, uno dei modi per farlo è andare a monitorare in tempo reale quello che succede nella mia rete, intercettando tutto il traffico e cercando di trovare dentro questo traffico dei segni di qualche attività illecita. In questo caso le tecniche di intelligenza artificiale, anche di Deep learning, sono sicuramente molto utili e potenti. Non saranno loro che mi potranno dire che qualcuno “è entrato in questo momento e sta facendo questo”, però mi potranno dire “guarda, sta succedendo qualche cosa di strano in quella zona della rete, in quel computer, vai a dare un’occhiata a quello che sta succedendo”. Sarò io che dovrò prima programmarle, cercando di spiegargli quali sono gli eventi anomali e quali sono gli eventi giusti, perché nell’uso di un attrezzo c’è sempre una componente umana. In questo momento c’è molto marketing, che ti vende qualunque cosa come la soluzione perfetta, che funzionerà da sola. Succedeva cinquant’anni fa e succede anche adesso nel mondo dell’informatica, ma è solo marketing.

La cybersicurezza a volte può collidere con la privacy. So che segue un importante progetto in questo senso, ce ne vuole parlare?
Il progetto si chiama Progetto Winston Smith [un progetto informatico ed informativo per la difesa dei diritti civili in Internet nell’era digital Ndr], che da una ventina d’anni si propone di creare consapevolezza su cosa succede da quando la privacy è diventata una privacy su internet e quando i dati personali sono diventati un business per una quantità infinita di aziende, alcune notissime come Google o Amazon, altre meno note perché lavorano sotto traccia e scambiano dati in quantità industriali ma per scopi purtroppo non necessariamente positivi. Detto questo, il problema della privacy è un problema importante, ma se deve essere gestito attraverso la consapevolezza degli utenti, bisogna parlare con le persone, far sì che certe spiegazioni arrivino. Uno dei problemi principali per la privacy sono le comunità sociali, perché sono un altro posto in cui la gente si compromette molto, fornisce dati personali, sensibili e anche di più, addirittura la propria vita intima, convinta di parlare con altre persone, quando invece in realtà sta parlando con un aspiratore di dati che poi li inserisce nel circuito di sfruttamento, che muove quantità di soldi incredibili. Le quotazioni azionarie di Google, Amazon e Facebook ci possono dare una idea di quanto questo sia rilevante. Google e Facebook sostanzialmente regalano il loro servizio eppure sono quotate mille miliardi. E da dove vengono questi mille miliardi se il commercio dei dati non è una cosa estremamente lucrosa dal punto di vista commerciale? Questo è il ragionamento che chiunque dovrebbe fare. La privacy in questo momento si trova molto più a rischio per l’uso che le persone fanno delle comunità sociali rispetto a quello dell’intelligenza artificiale, che è un pericolo nuovo, che va controllato, ma non è solo un pericolo.

Il controllo dipende dall’etica delle imprese e dei Governi?
Si, decisamente sì. Il tipo di intelligenza artificiale che si usa nei prodotti di riconoscimento facciale, di gestione di flotte di veicoli, di analisi del traffico urbano è diversa dal Large Language Model e da altri modelli più noti. Il rischio è soltanto per come viene costruito il software e come viene utilizzato. Qui il problema non è di sicurezza informatica o necessariamente di privacy o dell’uso dell’intelligenza artificiale. È prima di tutto un problema di etica e di regolamentazione dei prodotti dell’informatica. Seguendo le linee guida del Garante italiano e del Garante europeo e lavorando in modo etico laddove queste linee guida sono più evanescenti si posso tranquillamente creare dei prodotti, potenzialmente pericolosi come quelli del riconoscimento facciale, in maniera etica e sicura. Bisogna, però, che la catena di sicurezza parta da chi produce il software, arrivi a chi la utilizza e che l’uso etico non salti mai nessuno di questi punti.

Condividi questo articolo:
Sponsor

Articoli correlati

Le aziende di New York devono dimostrare che il loro software di intelligenza artificiale non sia sessista o razzista

Valerio Servillo

Maltempo, estate nera per agricoltura e infrastrutture rurali, in ginocchio le produzioni ortofrutticole

Stefano Ghionni

L’Italia esce dalla Via della Seta. Tajani: non è nostra priorità

Ettore Di Bartolomeo

Lascia un commento

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:
Usando questo form, acconsenti al trattamento dei dati ivi inseriti conformemente alla Privacy Policy de La Discussione.