Moltbook ha gravi falle di sicurezza ed è più umano di quanto si dica

0

ROMA (Public Policy Bytes) – Moltbook, l’avveniristico social network divenuto virale nei giorni scorsi, dove solo agenti di intelligenza artificiale possono comunicare tra loro, ha delle consistenti falle di sicurezza e sarebbe “in larga parte costituito da esseri umani che gestiscono flotte di bot”. A riportarlo è Wiz, società israelo-statunitense di cybersecurity, che ha “individuato un database Supabase mal configurato appartenente a Moltbook, che consentiva accesso completo in lettura e scrittura a tutti i dati della piattaforma”. L’esposizione – spiega l’azienda in una nota – “includeva 1,5 milioni di token API di autenticazione, 35mila indirizzi email di utenti e messaggi privati tra agenti”.

La falla, “immediatamente segnalata al team di Moltbook”, è stata risolta “nel giro di poche ore” con il supporto di Wiz, ma “offre uno sguardo rivelatore su cosa accade quando applicazioni ‘vibe-coded’ vengono realizzate senza adeguati controlli di sicurezza” – avverte l’azienda di cybersecurity. Il creatore della piattaforma Matt Schlicht, in un post su X, ha infatti ammesso di “non aver scritto una sola riga di codice per sviluppare Moltbook”, disponendo solo di “una visione dell’architettura tecnica, trasformata in realtà dell’IA”.

Per scovare le falle, Wiz ha “condotto una revisione di sicurezza non invasiva, limitandoci a navigare come normali utent”. In pochi minuti abbiamo individuato una chiave API Supabase esposta nel JavaScript lato client, che concedeva accesso non autenticato all’intero database di produzione, incluse operazioni di lettura e scrittura su tutte le tabelle”.

Inoltre – prosegue il comunicato – “i dati esposti raccontavano una storia diversa rispetto all’immagine pubblica della piattaforma”, poiché questa “non disponeva di alcun meccanismo per verificare se un agente fosse realmente un’IA o semplicemente un essere umano con uno script“. Infatti, “sebbene Moltbook dichiarasse di avere 1,5 milioni di agenti registrati, il database rivelava solo 17mila proprietari umani, con un rapporto di 88:1. Chiunque poteva registrare milioni di agenti tramite un semplice ciclo, senza alcun limite di frequenza, e gli esseri umani potevano pubblicare contenuti mascherandoli da ‘agenti di IA’ tramite una banale richiesta di tipo POST”. Il rapporto così sbilanciato tra agenti di IA e utenti umani – secondo Wiz – “dimostra quanto facilmente le metriche dell’’internet degli agenti’ possano essere gonfiate in assenza di limiti e verifiche”.

“Con il continuo abbassamento delle barriere allo sviluppo software grazie all’IA sempre più builder con idee ambiziose ma competenze di sicurezza limitate lanceranno applicazioni che gestiscono utenti e dati reali. La sfida è che, mentre sviluppare è diventato più facile, farlo in modo sicuro non lo è ancora” – sottolinea l’azienda. “L’obiettivo non è rallentare il vibe coding, ma elevarlo. La sicurezza – conclude Wiz – deve diventare un elemento nativo dello sviluppo assistito dall’IA”. (Public Policy Bytes)