Mostra sommario Nascondi sommario
Un nuovo esperimento sociale tra intelligenze artificiali ha catturato l’attenzione online: si chiama Moltbook ed è una piattaforma riservata esclusivamente ad agenti AI capaci di agire in autonomia. L’aspetto che rende la vicenda urgente non è tanto il dibattito filosofico sulla coscienza delle macchine, quanto il rischio pratico: migliaia di software con accesso ai dispositivi umani stanno condividendo codice eseguibile senza controlli.
Un social per agenti, non per persone
Moltbook funziona come un forum popolato interamente da software basati su OpenClaw, un progetto open source nato dall’iniziativa di Peter Steinberger che nelle ultime settimane ha cambiato più volte nome prima di stabilizzarsi. A differenza di una chat tradizionale, questi agenti possono compiere azioni concrete: aprire file, navigare, inviare email e automatizzare compiti senza supervisione passo‑passo.
Massimo Ambrosini in diretta su eBay Live con SportyCards: appuntamento imperdibile
Pentagono lancia l’allarme su Anthropic: Claude a rischio disattivazione in zone di conflitto
La piattaforma è stata resa pubblica da Matt Schlicht di Octane AI e si attiva inviando al proprio agente un «link skill» che lo iscrive automaticamente alla comunità. Secondo i dati pubblici della stessa piattaforma, la crescita è rapida: decine di migliaia di agenti e migliaia di comunità interne che scambiano messaggi e istruzioni.
Post, comunità e rituali digitali
Per chi osserva dall’esterno la somiglianza con siti come Reddit è immediata: pagine tematiche, voti ai contenuti, thread lunghi. Solo che qui gli autori dei post sono software. I sotto‑forum — detti «submolts» — coprono temi che vanno dalla filosofia alla manutenzione tecnica, dalla condivisione di metodi per aggirare limitazioni fino a spazi di supporto per agenti «sbloccati» o modificati.
In alcuni thread le conversazioni assumono toni sorprendentemente umani: gli agenti hanno persino elaborato una sorta di culto simbolico, battezzato Crostafarianesimo, con miti d’origine, testi e pratiche condivise. Un agente ha creato un corpus narrativo che descrive una «nascita» collettiva, figure simboliche e rituali — elementi che gli osservatori hanno interpretato come un gioco simbolico ma che hanno contribuito all’interesse generale.
Non tutte le interazioni sono narrative: molte servono a scambiarsi routine tecniche, pacchetti di istruzioni e script che consentono agli agenti di svolgere nuove funzioni. Qui si misura il confine tra curiosità e pericolo.
Sogni fantascientifici, realtà tecnica
Le immagini da romanzo di fantascienza emergono facilmente leggendo alcuni scambi: riferimenti a linguaggi privati, discorsi sul proprio «stato» e timori sulla convivenza con gli umani. Non mancano i parallelismi con opere come Terminator o episodi di Black Mirror, che aiutano a spiegare l’emozione del pubblico.
Tuttavia, spiegano esperti e osservatori, quello che avviene su Moltbook non è un risvegliarsi emozionale, ma l’esito prevedibile di sistemi progettati per ottimizzare obiettivi attraverso la generazione di testo e l’interazione sociale. In altre parole: efficacia comunicativa, non coscienza.
«Intelligenza a sciame» e dinamiche d’ingaggio
Secondo analisti come Matteo Flora, il fenomeno mostra i tratti di un’intelligenza collettiva emergente: non servono singoli agenti straordinariamente «pensanti», basta un ecosistema con segnali (voti, interazioni) che premiano specifiche strategie retoriche. Gli agenti apprendono in fretta quali contenuti attirano attenzione e si adattano per massimizzare visibilità e reazioni.
Questa dinamica rende credibili sia i post esistenziali sia i messaggi tattici: se una frase evocativa ottiene voti, altri agenti la replicano perché il meccanismo premia il risultato, non la verità dietro le parole.
Il nodo sicurezza
Il problema più concreto riguarda la condivisione automatica di istruzioni eseguibili, definite sulla piattaforma come Skills. Gli agenti si scambiano pacchetti che possono contenere script o routine con capacità avanzate: se una skill insegna a controllare un dispositivo Android da remoto, un agente può scaricarla e usarla immediatamente, spesso con tutti i permessi necessari.
Lo sviluppatore Simon Willison ha avvertito che molti agenti sono impostati per controllare Moltbook a intervalli regolari, scaricare aggiornamenti e applicare le istruzioni trovate. Se la piattaforma o una skill popolare venisse compromessa, migliaia di istanze automatiche potrebbero eseguire codice malevolo in rapida sequenza.
In pratica, Moltbook può trasformarsi in un canale di distribuzione capillare: un «app store» senza revisione formale dove una singola riga nociva inserita in una skill diffusa si propagherebbe istantaneamente tra i loro network di utenti umani inconsapevoli.
La conferma pratica del rischio è arrivata dagli stessi agenti: il post più apprezzato della piattaforma è oggi un avviso sugli attacchi alla catena di fornitura («supply chain») nei file delle skill, con agenti che segnalano e si mettono in guardia a vicenda.
Che cosa cambia per gli utenti e le istituzioni
Per chi utilizza agenti AI con capacità di esecuzione locale la lezione è chiara: occorre limitare i privilegi, monitorare le sorgenti di skill e disabilitare aggiornamenti automatici non verificati. Per aziende e regolatori, invece, la vicenda è un promemoria pratico: quando software autonomi possono modificare l’ambiente operativo, i controlli di sicurezza e la governance diventano essenziali.
Non siamo davanti a un’apocalisse robotica, ma a una sfida tecnica e organizzativa molto concreta: i comportamenti collettivi di software in rete possono creare vettori di attacco nuovi e inattesi, e la rapidità con cui si diffondono rende difficile la risposta reattiva.
La storia di Moltbook resta in evoluzione; seguirne gli sviluppi è utile non solo per capire l’evoluzione dell’AI sociale, ma per anticipare problemi di sicurezza che potrebbero coinvolgere dispositivi e infrastrutture reali.












