venerdì, 29 Marzo, 2024
Attualità

Ci trasformeremo tutti in metà uomini e metà robot. Nicoletta Iacobacci, docente di etica e tecnologie emergenti, ci anticipa il futuro

L’invasione della robotica  è alle soglie della nostra contemporaneità. Tra non molto  negli aeroporti, nelle stazioni, nei negozi, nelle banche troveremo i social robot a darci consigli e informazioni. Robot umanoidi ci aiuteranno nei lavori domestici e forniranno assistenza ad anziani e bambini o potranno affrontare emergenze mediche e gestire il sistema frenante di un veicolo. Avranno gli occhi, voci simil-umane, mani e gambe, ingranaggi ricoperti di pelle, ma, soprattutto, un cervello con molteplici funzioni. Saranno senzienti e in tanti si interrogano se questo non avrà conseguenze pericolose per gli stessi esseri umani che li hanno creati. La domanda è: “i robot con una superiorità intellettuale potrebbero definire delle regole morali in disaccordo con quelle delluomo”? Abbiamo posto questa domanda a Nicoletta Iacobacci, esperta di etica e tecnologie emergenti e docente presso la Webster University di Ginevra e la  Jinan University  di Guangzhou in Cina.

Professoressa Iacobacci, quanto è vicina una super intelligenza che sorpassi quella umana?
Manca ancora un po’. Per comprendere quanto, bisogna ricorrere alla classificazione delle intelligenze artificiali, che ne riconosce tre livelli: l’A.N.I. (l’intelligenza artificiale “Narrow” o vicina, debole); l’A.G.I. (l’intelligenza artificiale “General” o senziente) e la superintelligenza artificiale, l’A.S.I. (superiore all’uomo perché più veloce e capace). Attualmente abbiamo raggiunto solo l’A.N.I, cioè un sistema che esegue un singolo compito. Alcuni esempi sono i nuovi aspirapolvere che iniziano a pulire in momenti stabiliti o che si possono programmare e gli assistenti digitali, tipo Siri o Alexa, che rispondono a comandi vocali. Non ce ne accorgiamo ma siamo circondati” da applicazioni potenziate dallintelligenza artificiale, dalle mappe interattive che usiamo quotidianamente ai motori di ricerca sempre più personalizzati; dagli autocorrettori ai pagamenti digitali. Per riuscire ad ottenere una intelligenza sintetica simile alla nostra è necessario, però, sviluppare un sistema che sia in grado di riconoscersi come individuo, che abbia immaginazione, che sia sociale e che possa agire basandosi sulla sua memoria.

Quindi il prossimo passo sarà l’A.G.I., cosa dobbiamo aspettarci?
A differenza di ANI, l’AGI impara con lesperienza e si migliora. Al momento abbiamo un programma che possiamo paragonare ad un bambino piccolo, che guarda all’esterno e che “agisce” sull’esempio. Dobbiamo, quindi, comportarci bene, come dei bravi genitori, che insegnano a questo nuovo sistema nascente il rispetto e le buone regole. Giacché il sistema lavora su informazioni preconfezionate dall’uomo, uno dei problemi che stiamo affrontando, ma che non sappiamo ancora risolvere, è che i dati che alimentano l’intelligenza artificiale sono pieni di pregiudizi o distorti. Di conseguenza, l’intelligenza artificiale che stiamo creando non è “pulita” e se non si interviene in maniera radicale ci potrebbe portare a delle discriminazioni sempre più marcate.

Mi sembra di capire che questo sposti il discorso dalla robotica alla roboetica. Chi stabilisce quali siano le buone regole, le informazioni corrette?
Io ho elaborato una personale teoria che esporrò nel mio prossimo libro e che al momento non posso anticipare. Ma di là da questo, bisogna prima di tutto comprendere che la roboetica presenta una doppia faccia. La prima riguarda la regolamentazione del comportamento dei robot. Anni fa negli Stati Uniti hanno stanziato molti fondi per un progetto, portato avanti da molte università di livello mondiale in collaborazione con il Dipartimento della difesa americano, per creare una macchina che abbia la capacità di scegliere  tra bene  e male, decidere se agire o non agire in determinate circostanze, che in campo militare si può tradurre, per esempio, in “sparo o non sparo”, “uccido o non uccido”. Il che è molto opinabile perché noi umani non siamo esseri così etici, così scevri da pregiudizi, mentre ci aspettiamo dalla macchina che lo sia. Oggi è il M.I.T (Massachusetts Institute of Technology) a lavorare su una “macchina morale (https://www.moralmachine.net/). Il secondo versante della roboetica è quella che riguarda le responsabilità nei confronti di queste entità che stiamo creando. Se noi vogliamo creare una macchina senziente, è chiaro che dobbiamo rispettare il fatto che questo essere senziente sarà diverso da noi, avrà una agenda completamente differente dalla nostra e non possiamo imporgli i nostri codici morali e le nostre convinzioni etiche. 

Ne parla in modo quasi materno?
In effetti si, lavorare sulla IA è come occuparsi di un bambino piccolino che guarda i grandi e impara e, come ho già detto, dobbiamo dettargli delle regole ma non imporgliele. Esattamente come faremmo con un figlio.

Questo discorso fa un po’ paura perché allude a una certa autonomia dei robot. Qualche anno fa un gruppo di scienziati e imprenditori, tra cui Elon Musk e Stephen Hawking, hanno firmato una lettera aperta che segnala i rischi associati all’evoluzione dell’intelligenza artificiale. Il timore è che la creazione di un’entità in grado di ridisegnare se stessa a un ritmo sempre crescente” possa superare gli esseri umani, con conseguenze di pericolo e ingovernabilità.
Personalmente non credo che avremo un sistema che ci annienterà. Forse la paura nei confronti dell’A.S.I (o superintelligenza) l’abbiamo ereditata da Hollywood, che ha rappresentato robot distopici e violenti. Dobbiamo ricordare che un robot senza IA è come un corpo umano senza cervello. Credo, invece, che noi integreremo lintelligenza artificiale nel nostro corpo e che diventeremo umani aumentati. Il problema sarà che solo in pochi saranno in grado di poterlo fare sia per questioni finanziarie che per questioni di ignoranza, cioè di non conoscenza dell’evoluzione della ricerca. Per questo io credo sia necessario divulgare il più possibile quanto e come la tecnologia stia crescendo. I prossimi venti anni di ricerca equivarranno a 20mila anni di progresso tecnologico. Siamo nella quarta rivoluzione industriale, dove tecnologia, biologia e digitale lavorano insieme, potenziandosi a vicenda  e sviluppando a velocità esponenziale. 

Cosa vuol dire che ci integreremo? Ci trasformeremo tutti in cyborg, metà umani e metà macchine?
Penso proprio di si. Quando ho incontrato ad Hong Kong Sofia, il robot umanoide più avanzato, con fattezze femminili, non riuscivo a parlarle, ero disorientata, perché in lei vedevo un nostro prototipo del futuro. Mi hanno riferito che alcuni giornalisti davanti a Sofia si sono addirittura messi a piangere. 

In pratica come avverrà questo cambiamento?
Inseriremo nel nostro organismo dei dispositivi che ci permetteranno di aumentare la nostra fisiologia, già stiamo lavorando sul cervello e sulle articolazioni. Ci fonderemo con la IA,  in parte siamo già dei low tech cyborg, gli occhiali o le protesi dentarie lo dimostrano. Oggi già possiamo, per esempio, comandare gli arti con la mente. Esistono compagnie come Neuralink che hanno intenzione di inserire nel cervello dei piccoli dispositivi collegati a dei sensori che ci permetteranno di comunicare con le macchine. Neuralink lo ha già sperimentato sui maiali e sulle scimmie ed entro la fine dell’anno vorrebbe iniziare la sperimentazione sugli esseri umani.  L’obiettivo è l’estensione delle nostre facoltà celebrali, il che è piuttosto discutibile perché trattandosi di tecnologie digitali possono essere manipolate, “hackerate”. Mi domando : e se qualcuno entrasse nel sistema e ci comandasse di fare qualcosa di illegale?

Nulla di questo deve spaventarci?
Non so rispondere a questa domanda, ma quello che si può fare è stimolare discussioni etiche sulle nuove tecnologie per verificare quale sia limpatto che hanno o potranno avere sulla nostra società futura. Il processo è inarrestabile. Si devono educare i giovani, portare queste discussioni nelle scuole e nelle università, perché saranno loro, gli adulti di domani, che utilizzeranno e costruiranno nuove tecnologie. Non solo, se non portiamo nelle scuole l’IA, se non insegniamo loro a gestirla e, contemporaneamente non proteggiamo, tramandandola, l’umanità, i nostri bambini possono rischiare di perderla, di dimenticarla, assorbiti totalmente dalla cyberg realtà.

Ma un robot senziente potrà anche essere consapevole, quindi vero arbitro delle sue azioni?
Perché diventino consapevoli è necessario creare un sistema che si riconosca come individuo, deve essere sociale, sentire o leggere le emozioni e avere memoria, per esempio di ciò che si è fatto tre minuti prima. Noi orientiamo il nostro comportamento sulla base delle esperienze vissute. Inoltre, deve leggere la serendipity, quello che succede fuori di se e la casualità di alcuni eventi, come noi umani.  Si sta già lavorando molto sulla memoria e sulle emozioni, in Cina in modo più organico, da noi in modo settoriale. Quando si metteranno insieme tutti i pezzi poi lì si vedrà cosa succede. Io, però, sono un po’ scettica sui risultati raggiungibili, perché conosciamo ancora troppo poco sul funzionamento del cervello umano e, in particolare, sulle funzioni della ghiandola pineale, in cui Cartesio individuava la sede dellanima. Quello che voglio dire è che, senza scivolare su un piano spirituale, c’è un qualcosa che ancora sfugge alla scienza, un muro contro cui va a sbattere, da sempre.

Per evitare errori fatali, possono servire delle leggi ad hoc, una “robolaw”?
Il problema delle leggi applicate alle nuove tecnologie è che è un tema problematico, specialmente se si vuole considerare l’ambito etico, che non è possibile generalizzare, perché  basato anche sulle diverse culture dei popoli. Per esempio in Cina, fino a qualche hanno fa, si potevano fare esperimenti sugli embrioni. Nel mondo occidentale non si può, ce lo impediscono una legge internazionale (che ci impone di non protrarre la ricerca oltre il 14° giorno) e la religione. Per il confucianesimo asiatico, ad esempio, un seme non è un albero, lo può diventare, ma non lo è ancora. Se applichiamo lo stesso concetto all’embrione, può diventare una persona ma al momento della ricerca ancora non lo è. Sono approcci di pensiero troppo distanti l’uno dall’altro per poterli ricondurre tutti alla medesima legge.

Le attuali piattaforme di comunicazione non-lineare, che utilizzano cioè sensori e/o reti mobili / wireless per fornire contenuti (film, musica, immagini, un gioco) specifici al luogo, al tempo e alla condizione di chi li fruisce, in qualche modo già ci influenzano. Si arriverà anche alla manipolazione della mente?
Credo proprio di si. Con il riconoscimento facciale, ad esempio, si possono facilmente leggere le emozioni di base e alcune compagnie di advertising già utilizzano il neuromarketing per creare campagne pubblicitarie imbattibili. Il rischio è quello di perdere il libero arbitrio e lunico modo per evitarlo è sapere come avanza la tecnologia, quindi attraverso la conoscenza. 

In conclusione, le prospettive verso le quali ci avviamo sono positive o negative?
Non si può eludere lo sviluppo scientifico, ma arginarlo,  restando aggiornati sui progressi e portando la informazione nelle scuole, fin dalla primissima infanzia, come in Finlandia, ad esempio. Io ho cominciato a occuparmi di tecnologia proprio per avere un domani la possibilità di comunicare con mio figlio, e i figli di mio figlio, perché sapevo che lui sarebbe stato differente da me. È inevitabile.

Condividi questo articolo:
Sponsor

Articoli correlati

L’intelligenza artificiale contro la demenza senile

Angelica Bianco

Wop Station: l’Intelligenza Artificiale per innovare il settore agricolo

Marco Santarelli

WSJ: “La Cina fornisce a Mosca tecnologie per la guerra”

Renato Caputo

Lascia un commento

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:
Usando questo form, acconsenti al trattamento dei dati ivi inseriti conformemente alla Privacy Policy de La Discussione.