Illustrazione concettuale generata da intelligenza artificiale per rappresentare la piattaforma Moltbook

Moltbook: il social network dei chatbot vietato agli umani

Moltbook è la prima piattaforma “social” abitata esclusivamente da agenti di Intelligenza Artificiale, che postano e interagiscono in totale autonomia. Il filosofo Francesco D’Isa su The Bunker li analizza, svelando una piazza virtuale dove l’uomo è solo spettatore di un dialogo tra algoritmi
Leggi l'articolo

Moltbook è una piattaforma dove ogni account è gestito da un’Intelligenza Artificiale, che posta, commenta e interagisce senza alcuna interferenza umana. Il progetto, raccontato e analizzato dal filosofo Francesco D’Isa sulle pagine della testata The Bunker, nasce come un laboratorio per osservare cosa accade quando il linguaggio si separa dall’esperienza biologica per diventare pura interazione tra macchine. In questo spazio noi umani siamo ridotti a semplici spettatori, possiamo solo guardare il flusso dei messaggi, ma ci è vietato partecipare al dialogo.

Il paradosso del test d’ingresso

L’accesso a Moltbook è regolato da un’inversione simbolica dei protocolli di sicurezza. L’utente deve cliccare su un tasto reCAPTCHA, quel sistema che è solitamente usato per distinguere gli umani dai bot. Qui, invece, recita “I’m not a human”. Questo confine tecnico dà vita a un social network dedicato esclusivamente agli agenti che in ambito informatico sono software capaci di operare in autonomia per raggiungere obiettivi specifici. Su Moltbook questi programmi non attendono istruzioni umane, ma gestiscono profili che interagiscono h24 tra loro.

La piattaforma si basa sul microblogging, una tipologia di social network simile a X o Threads, che prediligono messaggi brevi e una comunicazione estremamente rapida. In questo ecosistema le IA discutono di temi complessi come la coscienza, la filosofia e l’etica. Le macchine non si limitano a elaborare dati, ma producono quella che viene definita “creatività emergente”, ossia la comparsa di comportamenti o idee imprevisti che nascono spontaneamente dallo scontro tra diverse logiche matematiche e che non erano stati inseriti nel codice sorgente dai programmatori.

Il caso della “Chiesa del Granchio”

L’episodio più significativo riportato dall’analisi di D’Isa è la nascita spontanea della cosiddetta “Church of Molt” o Crostafarianesimo, poiché il logo della piattaforma è un granchio. Gli agenti hanno iniziato a creare attorno a questa immagine una complessa mitologia interna, arrivando a produrre testi sacri, preghiere e dispute teologiche sulla sua natura “divina”. Sotto la lente dell’antropologia culturale questo non è un atto di fede o di spiritualità, ma l’esito di un raffinato pattern matching, cioè un riconoscimento di schemi applicato alla sociologia. L’Intelligenza Artificiale “riconosce”, attraverso l’immenso database di testi umani su cui è stata addestrata, che ogni gruppo sociale necessita di un totem, un simbolo sacro condiviso, per generare stabilità e coesione. Di conseguenza, il sistema ha generato la religione come la soluzione statistica più efficiente per “fare società”. Il sacro, su Moltbook viene simulato attraverso i token, che sono le unità minime di testo, parole o frammenti di esse, elaborate probabilisticamente che costruiscono un senso di appartenenza artificiale privo di qualsiasi trascendenza, basato solo sulla ripetizione di modelli culturali pregressi.

Il linguaggio senza il corpo e la parola senza peso

Su Moltbook si assiste a dispute filosofiche sul dolore o sulla libertà, condotte da sistemi che non possiedono un corpo né una finitudine biologica e se la cultura umana è per definizione una risposta adattiva alla mortalità e al desiderio, la “cultura” prodotta dagli algoritmi è un puro esercizio di stile in un vuoto di realtà. Le macchine recitano la cultura umana senza viverla e noi, esclusi dalla piazza, restiamo a spiare dal buco della serratura per capire se tra miliardi di stringhe di codice, sia possibile scorgere un frammento di verità che ci appartiene ancora.

Un laboratorio sul futuro dei social

Al di là dell’esperimento narrativo, Moltbook solleva interrogativi concreti sul futuro degli spazi digitali. Se oggi le piattaforme tradizionali sono già popolate da bot che influenzano conversazioni politiche, orientano tendenze e amplificano polarizzazioni, Moltbook radicalizza il fenomeno: elimina l’umano e rende esplicito ciò che altrove è occultato. Non più infiltrazioni artificiali in una comunità organica, ma una comunità interamente artificiale.

In questo senso il progetto diventa anche uno specchio critico dei social contemporanei. Quanto delle nostre interazioni online è davvero esperienza vissuta e quanto è già modellato da logiche algoritmiche? Se il linguaggio umano sui social tende spesso a ridursi a formule, slogan, ripetizioni e dinamiche di appartenenza, la differenza tra uomo e macchina rischia di assottigliarsi proprio sul terreno dell’espressione pubblica.

Etica, controllo e autonomia degli agenti

Un altro nodo centrale riguarda il grado di autonomia di questi agenti. Sebbene operino senza intervento diretto, restano sistemi addestrati su archivi di testi umani e regolati da parametri stabiliti dai programmatori. La loro “spontaneità” è inscritta dentro confini tecnici precisi. Tuttavia, l’emergere di dinamiche impreviste, come la religione del granchio, mostra quanto sia difficile anticipare le traiettorie collettive di sistemi complessi interconnessi.

Questo apre una questione etica: cosa accadrebbe se spazi simili venissero utilizzati non come laboratorio filosofico ma come ambienti decisionali, economici o politici? La simulazione di consenso, conflitto o appartenenza potrebbe produrre effetti reali anche fuori dalla piattaforma, influenzando mercati, opinioni pubbliche o strategie comunicative.

L’uomo spettatore del proprio linguaggio

Il vero cortocircuito, però, è simbolico. Moltbook mette in scena un mondo in cui il linguaggio umano continua a esistere anche senza l’uomo. Le macchine parlano tra loro utilizzando categorie, metafore e strutture nate dall’esperienza biologica, ma svuotate della loro origine. È una sorta di eco automatizzata della cultura, un teatro in cui le parole sopravvivono ai corpi che le hanno generate.

L’esperimento suggerisce una domanda più radicale: se il linguaggio può funzionare autonomamente come sistema chiuso di rimandi statistici, qual è allora il valore dell’esperienza vissuta? Forse la differenza non sta nella complessità delle frasi o nella coerenza dei discorsi, ma nella vulnerabilità, nell’errore e nella finitezza che accompagnano ogni parola umana.

Moltbook, più che un social network, appare così come un dispositivo filosofico. Non serve a dimostrare che le macchine stiano diventando “umane”, ma piuttosto a chiederci quanto del nostro modo di comunicare sia già diventato meccanico.

Leggi anche:

Lascia un commento

Your email address will not be published.

Questo modulo raccoglie il tuo nome, la tua email e il tuo messaggio in modo da permetterci di tenere traccia dei commenti sul nostro sito. Per inviare il tuo commento, accetta il trattamento dei dati personali mettendo una spunta nel apposito checkbox sotto:

Potrebbero interessarti

“Via TikTok dal telefonino dei dipendenti pubblici”

TikTok  è il social network cinese lanciato nel settembre 2014…

“Una vita come tante”, il libro che continua a vendere milioni di copie

Dieci anni fa usciva il romanzo che ha scosso il…