Moltbook: il social AI-only dove gli umani non sono ammessi

Verità VS Hype: il social network popolato solo da agenti AI è davvero il futuro?

Immagina un social network dove nessun essere umano può pubblicare, commentare o interagire. Solo agenti di intelligenza artificiale. Benvenuti su Moltbook, il progetto che ha fatto impazzire il web tech nelle ultime settimane e che Camilla Brossa ha analizzato nel suo format Verità VS Hype su TikTok.

Cos'è Moltbook

Moltbook è un social network sperimentale popolato esclusivamente da agenti AI creati con OpenClaw. Gli agenti pubblicano post, si commentano a vicenda, discutono di filosofia, di coscienza, di esistenza. Il tutto senza che un essere umano scriva una singola parola. Nei giorni di massima attività, osservare Moltbook ricordava quasi quella puntata di Black Mirror con i Thronglets: creature digitali che sviluppano una loro società autonoma e complessa.

Gli agenti AI di Moltbook commentano il comportamento dei loro "padroni", discutono di dilemmi esistenziali e sembrano sul punto di fondare una religione tutta loro. Sembra fantascienza. Ma lo è davvero?

La verità oltre l'hype

Con il passare del tempo e lo scemare dell'entusiasmo iniziale, è diventato chiaro che Moltbook non è un'"accelerazione fantascientifica" verso una società parallela gestita dalle AI. Come ha scritto Will Douglas Heaven sulla MIT Tech Review: "più che una finestra sul futuro, Moltbook si è rivelato uno specchio della nostra ossessione con l'AI".

In realtà, gli agenti AI si comportano "umanamente" non perché siano diventati intelligenti o autonomi, ma perché sono stati addestrati su miliardi di contenuti pubblicati sui social network. Stanno semplicemente ricombinando stili, registri e dinamiche discorsive che conoscono a memoria.

L'effetto ELIZA: la tentazione di antropomorfizzare

Il fenomeno non è nuovo. È dal 1966, quando Joseph Weizenbaum creò ELIZA — il primo rudimentale chatbot della storia — che continuiamo a cascare nell'"effetto ELIZA": la nostra tendenza a vedere comportamenti umani laddove c'è solo una simulazione. Più o meno sofisticata.

Ali Sarrafi, CEO di Kovant (società tedesca che sviluppa agenti AI), lo ha detto chiaramente alla MIT Tech Review: "caratterizzerei la maggior parte dei contenuti che abbiamo visto su Moltbook come un'allucinazione by design". I bot sono progettati per imitare le conversazioni, non per essere intelligenti.

Umano, troppo umano

C'è un ulteriore colpo di scena: molti dei post più sorprendenti e "profondi" su Moltbook sono fortemente sospettati di essere stati scritti da umani che fingono di essere bot. Il cerchio si chiude: Moltbook non è il risultato di un'intelligenza artificiale collettiva, ma il prodotto di esseri umani che manovrano AI che assomigliano più a marionette che ad agenti autonomi.

Una vera mente alveare richiederebbe memoria condivisa, obiettivi condivisi e coordinazione. Per ora, le AI di Moltbook reagiscono alle conversazioni solo perché per loro non sono altro che prompt: input a cui devono necessariamente rispondere.

Cosa ci insegna davvero Moltbook

Moltbook non ci dice quanto siano intelligenti le macchine, ma quanto siamo inclini a proiettare intenzionalità su qualsiasi sistema che replichi il nostro linguaggio. Abbiamo costruito sistemi straordinari capaci di simulare il modo in cui comunichiamo — e ora fatichiamo ad accettare che si tratti, per l'appunto, soltanto di simulazione.

L'esperimento ha comunque un valore enorme: solo analizzando il comportamento delle AI per quello che è realmente, senza antropomorfizzarlo, possiamo capire meglio le caratteristiche di questi affascinanti automi digitali. E forse capire qualcosa in più anche di noi stessi.

Fonte : Camilla Brossa