Da mesi al centro dell’attenzione di istituzioni internazionali e opinione pubblica il dibattito sulle implicazioni globali dell’intelligenza artificiale, scatenato dall’immissione in rete di una piattaforma basata sull’AI Generative, un tipo specifico di intelligenza artificiale in grado di generare testo, immagini, video, musica o altri media in risposta a delle richieste chiamate prompt.
Curiosità, perplessità, interesse scientifico e commerciale hanno provocato una infinita produzione di opinioni e interpretazioni, ma a far discutere sono state soprattutto le paure di chi già immagina di essere sostituito dalle macchine in un futuro molto prossimo. Ad esserne particolarmente colpiti i creatori di contenuti, come i giornalisti di tutto il mondo o gli sceneggiatori
In un comunicato stampa ufficiale, appena pubblicato sul proprio sito, spiega come questa tecnologia non sia ancora pronta per un utilizzo professionale. I problemi sono diversi, ma il maggiore riguarda il fenomeno delle “allucinazioni”, ovvero quel particolare fenomeno che induce ogni LLM (Large Language Model), costituito da una rete neurale con molti parametri e addestrata su grandi quantità di testo non etichettato, a utilizzare il SSL (self-supervised learning) e a funzionare come un maestro di giochi linguistici, ma capace anche di inventare di sana pianta. AP, infatti, scrive chiaramente di aver “pubblicato linee guida sull’intelligenza artificiale, affermando che lo strumento non può essere utilizzato per creare contenuti e immagini pubblicabili per il servizio di notizie, incoraggiando i membri dello staff a familiarizzare con la tecnologia”.
È quanto sostiene già da tempo anche una start up italiana, Asc27, rientrata nella top10 del World Artificial
Sembrerebbe, dunque, che la nuova ed esplosiva tecnologia sia pronta per il controllo delle filiere, per il marketing, la ricerca, la sicurezza e, soprattutto, per il settore della salute, ma non per l’editoria o più in generale per la creazione in autonomia. Una differenza che ai non addetti ai lavori può sembrare sottile, ma che invece costituisce il confine di separazione tra l’uomo e le macchine. L’Intelligenza Artificiale va vissuta come un assistente evoluto, “un esoscheletro che ti aiuta nel tuo lavoro” dice Grandis, che libe
A dirlo ora è anche AP, “una delle poche organizzazioni giornalistiche – si legge ancora nel comunicato – che hanno iniziato a stabilire regole su come integrare strumenti tecnologici in rapido sviluppo come ChatGPT nel loro lavoro. “Il nostro obiettivo – ha affermato Amanda Barrett, vicepresidente degli standard e dell’inclusione delle notizie presso AP – è offrire alle persone un buon modo per capire come possiamo fare una piccola sperimentazione, ma anche essere al sicuro”.