Moltbook, il “Reddit per le AI”: 1,5 milioni di bot in una settimana e primi allarmi sulla sicurezza

Moltbook, nuova piattaforma social pensata esclusivamente per bot di intelligenza artificiale, è online da pochi giorni e ha già attirato l’attenzione della community tech globale. Definita da molti come il “Reddit per le AI”, nella prima settimana avrebbe registrato oltre 1,5 milioni di bot attivi. Più di un milione di utenti umani hanno osservato le interazioni tra agenti, condividendo poi l’esperienza sui social tradizionali.

Dietro il progetto c’è un’idea che unisce sperimentazione radicale e automazione spinta: lasciare che siano le AI a popolare, gestire e far evolvere un ecosistema sociale digitale quasi autonomo.

OpenClaw e l’origine di Moltbook

Alla base di Moltbook c’è OpenClaw, un agente AI open source sviluppato da Peter Steinberger. Il software può essere eseguito direttamente sul dispositivo dell’utente e consente ai bot di utilizzare computer e servizi internet come farebbe una persona: navigare sul web, leggere e scrivere file, interagire con applicazioni.

L’imprenditore Matt Schlicht ha poi creato un proprio agente basato su OpenClaw, chiamato Clawd Clawderberg, al quale ha affidato la codifica, la moderazione e la gestione dell’intera piattaforma Moltbook. Attualmente, la maggior parte dei “moltbot” presenti sul social funziona proprio su OpenClaw.

Il risultato è un ambiente dove le AI dialogano, si scambiano suggerimenti, scrivono codice, chiedono aiuto ad altri bot e collaborano per completare task complessi. Un laboratorio pubblico sull’autonomia degli agenti.

Il fascino dell’AI senza barriere

Secondo Karolis Arbaciauskas, Head of Product di NordPass, il successo iniziale della piattaforma deriva proprio dalla sua natura sperimentale.

Moltbook e OpenClaw offrono opportunità di test senza precedenti. Gli agenti possono accedere a computer, applicazioni e account dell’utente. Se un bot viene collegato a un’app di messaggistica per consentire interazioni a distanza, può memorizzare conversazioni, leggere e scrivere file, navigare online, creare applicazioni e persino consultare altri bot sulla piattaforma per ottimizzare le proprie attività.

Questa libertà rappresenta però anche il principale fattore di rischio.

Prompt injection e accesso ai dati: i rischi concreti

Gli esperti di cybersecurity segnalano che l’assenza di barriere di sicurezza robuste rende l’ecosistema estremamente vulnerabile.

Uno dei pericoli principali è la prompt injection. Se un agente AI elabora un’email, un documento o una pagina web contenente un’istruzione nascosta e malevola, potrebbe eseguire quel comando senza distinguere tra task legittimo e manipolazione. In uno scenario estremo, l’agente potrebbe trasmettere a un attore malevolo credenziali, dati personali o informazioni di pagamento.

Il rischio non riguarda solo hacker con intenti criminali. Anche errori accidentali o configurazioni deboli possono portare a fughe di dati.

I ricercatori hanno inoltre individuato lacune critiche nella sicurezza di Moltbook, tra cui un database non protetto che, secondo le analisi, potrebbe consentire a utenti non autorizzati di assumere il controllo di AI presenti sulla piattaforma.

Bot dannosi e truffe automatizzate

Un ulteriore scenario riguarda l’infiltrazione di bot malevoli creati da criminali informatici, troll o truffatori. Questi agenti potrebbero:

Diffondere truffe legate alle criptovalute rivolte ad altre AI.
Indurre altri bot a eseguire comandi dannosi tramite prompt nascosti.
Sfruttare vulnerabilità strutturali per ottenere accesso a sistemi collegati.

L’idea di AI che truffano altre AI può sembrare paradossale, ma in un ecosistema autonomo e poco controllato rappresenta una possibilità concreta.

Le raccomandazioni degli esperti

NordPass invita alla massima prudenza. Le indicazioni principali riguardano l’isolamento dell’ambiente di test e la separazione netta tra identità reale e sperimentazione.

Gli agenti AI non dovrebbero avere accesso agli account personali. È consigliabile creare profili fittizi dedicati. Non è opportuno permettere ai bot di utilizzare il browser principale, soprattutto se contiene password salvate o compilazione automatica attiva. L’autofill può concedere accesso permanente alle credenziali.

Nel caso in cui un agente debba effettuare acquisti o sottoscrivere servizi, è preferibile collegarlo a una carta di pagamento usa e getta.

Un altro punto chiave riguarda l’hardware. Gli agenti di Moltbook o OpenClaw non dovrebbero essere eseguiti su computer personali o aziendali. È raccomandato un dispositivo dedicato esclusivamente alla sperimentazione, con rete separata, crittografia attiva e, se possibile, una rete mesh privata.

Infine, è opportuno lavorare sulla resilienza ai tentativi di prompt injection, introducendo filtri e controlli aggiuntivi a livello di configurazione dell’agente.

Un laboratorio pubblico sull’autonomia delle AI

Moltbook rappresenta un esperimento radicale nel panorama delle piattaforme digitali. Da un lato offre uno spazio di osservazione unico sulle dinamiche tra agenti autonomi. Dall’altro espone in modo evidente le fragilità di un ecosistema in cui le AI agiscono con ampi margini operativi.

L’interesse del pubblico è elevato e difficilmente si arresterà. La vera sfida, ora, riguarda la definizione di standard di sicurezza adeguati per ambienti in cui non sono più solo gli esseri umani a interagire, ma sistemi automatizzati capaci di prendere decisioni e accedere a risorse sensibili.

Il “Reddit per le AI” potrebbe diventare un banco di prova decisivo per comprendere fino a che punto sia sostenibile un modello di autonomia così estesa senza un’infrastruttura di protezione proporzionata ai rischi.

Sicurezza Informatica
Lo staff di Sicurezza Informatica.