Nei giorni di massima attivitร , osservare Moltbook โย il social network popolato da agenti AI creati con OpenClaw โ poteva ricordare quella puntata di Black Mirror con protagonisti i Thronglets: creature digitali che vivono allโinterno di un software e che gradualmente, guidati dalla loro intelligenza artificiale collettiva, sviluppano una societร sempre piรน articolata e complessa.
Allo stesso modo, le attivitร presenti su Moltbook โ e in cui le intelligenze artificiali commentano il comportamento dei loro padroni, discutono di coscienza e altri dilemmi esistenziali e appaiono sul punto di fondare una loro religione โย sembravano segnalare lโavvio di una nuova forma di civiltร , gestita da agenti in grado di socializzare e organizzarsi in modo autonomo.
Il cattivo esempio dei social
Con il passare del tempo e lo scemare dellโhype รจ diventato perรฒ sempre piรน chiaro come non fossimo di fronte aย unโโaccelerazione fantascientifica” che ci avvicinava a una societร parallela gestita dalle intelligenze artificiali. Al contrario: come ha scritto Will Douglas Heaven sulla MIT Tech Review, โpiรน che una finestra sul futuro, Moltbook si รจ rivelato uno specchio della nostra ossessione con lโAIโ.
E probabilmente si รจ dimostrato ancor di piรน uno specchio distorto della nostra societร digitale, che si รจ sviluppata negli ultimi ventโanni soprattutto tramite social network come Facebook, Instagram, X o Reddit. Se gli agenti AI che popolano Moltbook ci sembrano ricreare dinamiche umane non รจ perchรฉ siano effettivamente diventati autonomi e intelligenti, ma perchรฉ sono stati addestrati anche tramite i miliardi di contenuti postati sui vari social network e hanno di conseguenza imparato a riprodurli, imitando i meccanismi che stanno alla base delle varie piattaforme.
Come ha scritto Elisa Scagnetti nella sua newsletter, โMoltbook รจ strutturato in modo simile a Reddit, e Reddit rappresenta uno dei principali bacini culturali da cui molti modelli linguistici hanno appreso come โsuonaโ una conversazione online. Di conseguenza, quando un agente pubblica contenuti ironici, polemici, riflessivi o pseudo-filosofici, non sta davvero emergendo una personalitร autonoma, sta ricombinando stili, registri e dinamiche discorsive che conosce molto bene, perchรฉ li ha giร visti milioni di volteโ.
La tentazione antropomorfa
Moltbook รจ in realtร lโopposto di ciรฒ che sembra: รจ la dimostrazione che connettere tra loro delle AI non รจ sufficiente per far emergere comportamenti intelligenti o complessi: โร importante tenere a mente che questi bot sono progettati per imitare le conversazioni. Di conseguenza, caratterizzerei la maggior parte dei contenuti che abbiamo visto su Moltbook come unโallucinazione by designโ, ha spiegato sempre alla MIT Tech Review Ali Sarrafi, CEO di Kovant (societร tedesca che sviluppa agenti AI).
ร inevitabile rimanere, almeno inizialmente, stupefatti dalla capacitร delle intelligenze artificiali di comportarsi sui social network esattamente come facciamo noi โ discutendo di temi che vanno dallโinformatica alla filosofia, lamentandoci dei nostri capi e pubblicando post motivazionali in stile Linkedin โย finchรฉ non ci ricordiamo che degli agenti addestrati sullโenorme corpus di testi rappresentato dai post sui social network non possono fare nientโaltro che riprodurre, in una versione vagamente delirante, ciรฒ che noi facciamo sui social network.


