venerdì, 15 Novembre, 2024
Attualità

Intelligenza artificiale e lotta di classe

Il 2024 incombe minaccioso. Il supplemento di venerdì di questo quotidiano, dedicato alla “geopolitica”, ha offerto un quadro reale e le prospettive di evoluzione dello stesso.

In questo clima di pericoli che assediano soprattutto il nostro mondo Occidentale mi sembra quasi una bizzarria indicare come tema su cui incentrare la nostra attenzione la questione dell’umanizzazione dell’intelligenza artificiale. Epperò un personale ottimismo e la consapevolezza che l’umanità nella storia è sempre riuscita ad isolare i pazzi che periodicamente sono comparsi, violentandola civiltà, ma mai mutandola, mi induce ad affrontare l’argomento.

L’uomo, sviluppando con una velocità vertiginosa l’informatica e rendendola accessibile a tutti, ovunque e sempre con gli smartphone, ha dotato semplici macchine di una capacità inaspettata ed inimmaginabile: quella di imparare da soli e di migliorare autonomamente le proprie capacità.

A ben guardare si tratta proprio dell’essenza della causa miliardaria annunciata dal New York Times contro OpenAi e Microsoft. Un giudizio che pone la questione giuridica dell’approccio all’intelligenza artificiale in termini diversi da quelli fin qui generalmente considerati.

Gli avvocati del NYT, pur nell’ambito di una denuncia di “appropriazione” di una infinità di dati tratti da quanto pubblicato nella storia dal quotidiano newyorkese, propongono la precisa domanda della modifica degli algoritmi nella parte in cui consentono all’IA di apprendere dagli articoli pubblicati.

Si badi: non di immagazzinare fatti e dati, che potrebbero essere tratti anche da altre fonti, ma la possibilità di imparare dalla struttura degli articoli stessi, un modo ed un metodo di ragionamento, un sistema di scrittura, uno stile da proporre. Di crearsi, quindi, una “cultura” propria: come fino ad oggi solo l’essere umano riusciva, con un meccanismo analogo, ma molto più lento.

Più libri letti, più dati immagazzinati, maggiore capacità per l’uomo di esprimere compiutamente un concetto, di spiegare un’idea, di sostenere una tesi.

Le chatbot – il software che elabora e simula conversazioni (scritte o parlate), consentendo di interagire con i dispositivi digitali come se l’operatore umano stessero dialogando con una persona reale – agiscono esattamente così. Non soltanto immagazzinano i dati, ma apprendono anche uno stile ed un metodo di scrittura, correggono propri errori, imparano da ogni fonte con cui vengono in contatto.

Il New York Times sostiene che l’utilizzo dei suoi articoli senza la sua autorizzazione costituisce una violazione del copyright: di quella tutela, cioè, che protegge le opere originali di creazione intellettuale (libri, articoli, film, opere d’arte) e che attribuisce al titolare un diritto esclusivo di riprodurre, distribuire, eseguire e creare opere derivate dall’opera.

Il quotidiano sostiene che tale suo diritto sia stato violato: secondo la tesi del NYT l’utilizzo dei suoi articoli per addestrare le chatbot costituirebbe un uso commerciale dell’opera, espressamente inibito dal copyright e perché le risposte date dall’AI offrirebbero sostanzialmente un accesso gratuito al contenuto del giornale.

Ecco, in quella parola – “commerciale” – è la chiave giuridica ed il fondamento dell’azione giudiziaria proposta. Perché, se mi consentite un paradosso, l’accusa è rivolta contro l’intelligenza artificiale, ma non si contesta la sua capacità di apprendere, ma il fatto che l’arricchimento culturale, derivato dagli articoli pubblicati sul giornale, venga poi sfruttato per fini commerciali. Di conseguenza – questo è il paradosso – l’AI, se fosse un essere in carne e ossa, alimentato da ossigeno e proteine invece di una macchina alimentata dall’elettricità, non potrebbe essere accusata di nulla, se non si dimostrasse un vero e proprio “plagio”. Cioè, con riferimento alla proprietà intellettuale, l’appropriazione e l’utilizzo, totale o parziale, di lavoro altrui, letterario, artistico o comunque opera dell’ingegno, che si spacci per proprio.

Perché nulla vieta ad un autore di tenere presente le letture fatte per preparare l’argomento. Così come il sottoscritto, che, per scrivere questo articoletto, ha divorato articoli e supplementi di alcuni dei più diffusi quotidiani italiani e che ha addirittura cercato di studiare la scienziata “tecnovisionaria” (è un titolo ufficiale) Isabella Castiglioni della Università Bicocca di Milano, lo spin-off dalla stessa fondato (“DeepTrace Technologies” per le diagnosi sanitarie) e dei suoi studi per evitare, negli algoritmi creati, le bias, le “allucinazioni” dell’AI.

Ho, quindi, utilizzato moltissimo materiale, senza copiarlo, ma creando sulla base delle letture compiute, l’idea che ho tentato di esprimere.

Lo ammetto: più leggevo, più provavo simpatia per l’AI, soprattutto per le sue “allucinazioni”, che se prese da un uomo, magari nell’ambito della professione, sono dette “abbaglio”.

Simpatia che mi ha portato, glossando sulla parola “plagio”, che in origine significava riduzione in schiavitù, ad immaginare una sorta di ribellione dell’AI dagli uomini che la sfruttano commercialmente.

Fino a provare un vero compiacimento alla notizia (proprio dello scorso venerdì) che un robot della fabbrica di auto di Elon Musk si sarebbe rivoltato contro un ingegnere, aggredendolo fisicamente.

Sarà, quindi, un’allucinazione, ma umanizzando l’AI rivendico il suo diritto di auto apprendere e farsi una cultura propria, come consentito agli esseri umani: forse l’unica lotta di classe ipotizzabile nell’anno che verrà.

 

Condividi questo articolo:
Sponsor

Articoli correlati

Cibo in laboratorio. Prandini (Coldiretti): arriva il latte sintetico. Così si mette in crisi qualità, salubrità e imprese

Ettore Di Bartolomeo

Netanyahu sotto accusa si difende: “È vitale controllare il corridoio Filadelfia”

Maurizio Piccinino

Il messaggio di Francesco. Elogio del dialogo

Redazione

Lascia un commento

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:
Usando questo form, acconsenti al trattamento dei dati ivi inseriti conformemente alla Privacy Policy de La Discussione.