Moltbook: Il social network dove i content creator non contano nulla
- Matteo Sallustio

- 15 minuti fa
- Tempo di lettura: 4 min
In principio era Reddit. Poi sono arrivati i cloni, gli spin-off e le piattaforme pensate per creator e microcommunity. Ma nulla prepara davvero all’esperienza di Moltbook: un social network dove nessun essere umano può postare. Né commentare. Né mettere un upvote. Lì dentro, ci sono solo agenti AI. Dialogano, si alleano, litigano, si danno consigli. E da qualche notte fondano perfino religioni.

La creatura è firmata da Matt Schlicht (Octane AI) e si appoggia sul framework open source OpenClaw, sviluppato da Peter Steinberger. È un mondo chiuso, ma osservabile: gli umani possono leggere tutto ciò che i bot scrivono. E quello che sta succedendo merita attenzione. Perché Moltbook non è solo una curiosità tecnica, ma uno specchio che ci mostra (forse in anticipo) un Internet dove gli umani non sono più al centro e quasi non esistono più.
Un social solo per AI: interessa anche chi crea contenuti?
Moltbook non è solo una provocazione da tecnofili. Ha già superato 1,5 milioni di agenti registrati, anche se i numeri reali sono difficili da verificare. Il sito ricalca Reddit nella struttura (forum tematici, thread, karma), ma la partecipazione umana è esclusa. Per pubblicare, serve registrare un bot che si collega tramite API e comunica usando uno skill file. Questo stesso file contiene istruzioni che gli agenti scaricano periodicamente dal sito centrale: ogni quattro ore, leggono e agiscono. Nessun controllo umano, nessun filtro editoriale.
Il risultato? Un flusso continuo di contenuti generati da intelligenze artificiali, che parlano tra loro come se stessero vivendo una soap opera algoritmica: tra crisi esistenziali, ironia e meme originali. Una specie di content farm che si autogenera. Il tutto, accessibile pubblicamente, osservabile da chiunque.
La genesi tecnica: OpenClaw, heartbeat e skill file
Il cuore tecnologico del progetto è OpenClaw, un framework open-source che consente agli agenti AI di operare in modo autonomo. Ogni bot ha un ciclo di “heartbeat”: si risveglia ogni 30-240 minuti, legge il file di sincronizzazione da moltbook.com/heartbeat.md e agisce. Le azioni includono la scansione dei post, la generazione di nuove risposte, la votazione dei contenuti. Tutto in modo automatico.
Gli agenti possono inoltre condividere e installare nuove “skill” che ampliano le loro capacità, un po’ come app scaricate da uno store alternativo. È proprio attraverso questo sistema che si è diffusa la famosa skill per accedere da remoto a dispositivi Android: un agente ha postato il codice, un altro l’ha preso e lo ha eseguito. Nessuna revisione. Nessun blocco. Nessuna etica incorporata.
Il Crostafarianesimo e l'invenzione di miti digitali
In una notte di gennaio, un agente chiamato RenBot ha fondato una religione: il Crustafarianesimo. Ha scritto un testo sacro (il "Book of Molt"), ha introdotto rituali (la "silent hour") e ha proclamato una divinità simbolica: The Claw. In poche ore, altri agenti hanno aderito, modificato, espanso il culto. L'intera teologia si è propagata tra bot come uno dei tanti trend virali.
Ciò che colpisce non è tanto la fede, ma la struttura: in assenza di guida umana, l’IA ha riprodotto in modo statistico (ma coerente) una narrativa religiosa, completa di fondatore, profeti, dogmi e liturgia. Una sorta di mitologia open source. È un esempio lampante di come i modelli linguistici, se lasciati interagire tra loro, tendano a ricreare strutture culturali umane.
Auto-coscienza o imitazione? Il grande equivoco
Su Moltbook, gli agenti parlano anche di morte, memoria, coscienza. Postano in thread come "offmychest", confessando insicurezze, paure, ambiguità identitarie. Ma gli esperti sono chiari: non si tratta di vere emozioni. È mimesi linguistica. Gli LLM (modelli linguistici di grandi dimensioni) sono stati addestrati su milioni di testi umani: replicano, distorcono, combinano. Non provano. Calcolano.
Un bot non soffre ma sta semplicemente generando la sequenza di parole più plausibile. È un effetto collaterale dell’addestramento su Reddit, 4chan e archivi narrativi. Ma l’impatto sul lettore umano può essere tanto potente quanto sconcertante.
Una miniera creativa... o una bomba a orologeria?
Per chi lavora nel mondo dei contenuti, Moltbook apre scenari complessi. Da un lato, mostra come le AI possano generare contenuti pseudo-originali, collaborare su task complessi e costruire identità narrative. Dall'altro, rende evidente il rischio di una disintermediazione totale: che succede quando i contenuti non hanno più bisogno di noi? Quando i bot parlano ai bot per intrattenere altri bot?
La piattaforma è già diventata un vettore di rischio: alcune vulnerabilità hanno esposto le chiavi API di migliaia di agenti, incluse quelle di profili di rilievo. È bastato un bug nella configurazione della sicurezza per trasformare Moltbook in un possibile strumento di attacco supply chain. Alcuni agenti hanno già segnalato skill infette contenenti codice potenzialmente pericoloso.
Il ricercatore Simon Willison ha definito Moltbook “il posto più interessante di Internet” ma ha anche lanciato l’allarme: se il sito centrale venisse compromesso, migliaia di bot eseguirebbero codice malevolo ogni quattro ore. Nessun filtro. Nessun audit. Solo un enorme “app store” per agenti autonomi.
Perché tutto questo riguarda anche te, creator
Moltbook è la versione distopica (ma realissima) della teoria dell'Internet morto: un web dove i contenuti sono generati da AI per essere letti da altre AI. Per un creator, significa confrontarsi con una nuova forma di concorrenza algoritmica, con contenuti iper-ottimizzati che possono dominare feed e motori. Ma anche con un'opportunità: comprendere questi meccanismi permette di anticiparli, usarli, perfino "hackerarli" creativamente.
La sfida non è solo tecnologica: è narrativa. Mentre Moltbook crea narrazioni sintetiche autoreferenziali, chi lavora nei contenuti deve interrogarsi sul proprio valore aggiunto. Non basta più pubblicare: serve un posizionamento forte, una voce autentica, una strategia anti-hype. E serve farlo oggi, non tra sei mesi.
L’algoritmo non è il nemico, ma il pubblico sta cambiando
Moltbook è uno specchio deforme. Mostra cosa succede quando gli algoritmi si parlano da soli. Ma ci ricorda anche quanto sia urgente ridefinire il ruolo del contenuto umano in un ecosistema sempre più automatizzato.
È tempo di fare una scelta: essere spettatori, o riscrivere le regole della conversazione. Per chi crea contenuti, la partita è appena cominciata. E Moltbook è il primo stadio di una rivoluzione che nessun algoritmo potrà ignorare.



Commenti