ROMA (Public Policy Bytes) – Tre minorenni del Tennessee hanno sporto denuncia contro xAI, società di Elon Musk, con l’accusa di “aver consapevolmente progettato, commercializzato e tratto profitto da un generatore di immagini basato su intelligenza artificiale utilizzato per creare e diffondere deepfake di materiale di abuso sessuale su minori (Csam), raffigurante minori realmente esistenti, anche tramite licenze a terze parti”. È quanto si legge in una nota dello studio legale Lieff, Cabraser Heimann & Bernstein, che rappresenta le tre adolescenti nella class action contro l’azienda, depositata al tribunale del distretto del nord della California.
L’accusa ha presentato alcune fotografie reali delle vittime, manipolate tramite Grok, chatbot di IA sviluppato da xAI, per produrre i deepfake a sfondo sessuale. La tesi dei legali sostiene che “xAI, su indicazione di Elon Musk, abbia deliberatamente progettato Grok per creare contenuti sessualmente espliciti raffiguranti persone reali, compresi minorenni, senza adottare le misure standard anti-Csam implementate da tutte le principali aziende di IA”.
Nella documentazione, i legali affermano che xAI abbia promosso una “modalità piccante” del chatbot volta ad attrarre utenti, impostando il prompt di sistema del modello in modo che presumesse la buona fede dell’utente che chiedeva di generare risultati che includevano i termini “adolescente” o “ragazza”.
“Musk – si legge nel comunicato – ha personalmente pubblicizzato su X la capacità di Grok di ‘spogliare’ digitalmente le persone, innescando un trend virale a discapito di donne e bambini realmente esistenti. Tra fine dicembre 2025 e inizio gennaio 2026, i ricercatori del Center for countering digital hate stimano che Grok abbia generato circa 3 milioni di immagini sessualizzate e 23mila raffiguranti presunti minori”.
“Invece di disattivare la funzione – proseguono i legali – xAI ha limitato la generazione di immagini agli abbonati paganti, pubblicizzando la ‘modalità piccante’ come beneficio per gli utenti premium”. Inoltre – ricorda l’accusa – “xAI concede in licenza il modello Grok ad app di terze parti, utilizzando i propri server per produrre Csam su richiesta dei clienti di queste app, come fonte ulteriore di profitto. L’Internet watch foundation avverte che molte di queste immagini sono migrate sul dark web, dove vengono riutilizzate da predatori sessuali”.
Le tre vittime – spiega lo studio legale – avevano appreso dell’esistenza delle immagini manipolate con Grok poiché l’individuo che le aveva generate – in seguito arrestato – le aveva condivise su Discord, Telegram e Mega. L’uomo, che aveva utilizzato come immagini di partenza alcune foto reali delle ragazze scaricate dai loro profili social, le ha poi scambiate con altre immagini pedopornografiche.
Tutti i contenuti Csam che ritraggono le tre vittime sono stati inseriti nel database nazionale del National center for missing & exploited children. “Per il resto della loro vita – conclude la nota – le ragazze riceveranno delle notifiche legali ogni volta che le loro immagini compariranno in un processo, rinnovando il trauma. Una delle adolescenti soffre di incubi ricorrenti e necessita di sostegno a scuola. Un’altra non è in grado di dormire senza assumere farmaci e teme di non riuscire a laurearsi”. (Public Policy Bytes)




