All’inizio di dicembre, un’adolescente del Tennessee avrebbe ricevuto un messaggio da un utente anonimo di Instagram che la avvertiva che su un server Discord erano state caricate immagini deepfake a contenuto sessualmente esplicito che la ritraevano.
Una delle immagini sarebbe stata creata a partire da una fotografia scattata durante la festa di benvenuto della sua scuola lo scorso settembre. Un’altra immagine, che la ritraeva presumibilmente in topless, sembrava essere stata generata dalla foto dell’annuario scattata lo scorso giugno.
Quando l’adolescente, che ora è maggiorenne, ha finalmente ottenuto un link al server Discord, avrebbe trovato immagini e video di almeno altre 18 ragazze che all’epoca erano minorenni, molte delle quali studentesse nella sua stessa scuola.
Le nuove accuse sono descritte in dettaglio in una denuncia di 44 pagine presentata lunedì presso il tribunale federale di San Jose, in California, da tre residenti nel Tennessee identificate come Jane Doe. Le querelanti, rimaste anonime, hanno citato in giudizio la società di intelligenza artificiale di Elon Musk, xAI, per il suo modello di IA generativa, Grok. La proposta di azione collettiva sostiene che xAI abbia progettato Grok in modo sconsiderato per consentire tali abusi e che poi, tra le proteste dell’opinione pubblica, abbia limitato l’accesso alla tecnologia agli abbonati a pagamento e alle società terze, invece di risolvere il problema.
«xAI — e il suo fondatore Elon Musk — hanno intravisto un’opportunità di business: quella di trarre profitto da comportamenti predatori nei confronti di persone reali, inclusi i minori», si legge nell’esposto ottenuto da Rolling Stone US. «Limitare le funzionalità di generazione di immagini e video agli abbonati paganti (…) non impedisce la creazione di CSAM (materiale di abuso sessuale su minori) generato dall’IA, ma garantisce semplicemente che xAI tragga profitto da tutti questi contenuti».
Rolling Stone US ha contattato xAI per un commento lunedì, ma al momento non ha ricevuto risposta.
«Nessuno dovrebbe essere costretto a vivere con la paura che queste sopravvissute portano con sé, ma sono colpita dalla loro forza e dalla chiarezza di intenti nel promuovere questa causa a nome loro e di altri minori», ha dichiarato a Rolling Stone US Vanessa Baehr-Jones dello studio Baehr-Jones Law, tra i legali che rappresentano le querelanti.
«Si tratta di bambine le cui foto scolastiche e di famiglia sono state trasformate in materiale pedopornografico dallo strumento di intelligenza artificiale di un’azienda da miliardi di dollari e poi scambiate tra predatori. Elon Musk e xAI hanno deliberatamente progettato Grok per produrre contenuti sessualmente espliciti a scopo di lucro, senza alcuna considerazione per i bambini e gli adulti che ne sarebbero stati danneggiati», ha affermato Annika K. Martin dello studio Lieff Cabraser, che rappresenta anch’esso le querelanti. «Senza xAI, questi contenuti dannosi e illegali non avrebbero mai potuto esistere e non sarebbero mai esistiti. Le vite di queste ragazze sono state distrutte dalla devastante perdita di privacy e dal profondo senso di violazione che nessun bambino dovrebbe mai provare. Intendiamo ritenere xAI responsabile per ogni bambino che ha danneggiato in questo modo».
La funzione di generazione di immagini di Grok ha registrato un’impennata di popolarità a fine dicembre, dopo che Musk ha annunciato che gli utenti di X avrebbero potuto utilizzare Grok per modificare le immagini pubblicate sulla piattaforma con un solo clic. Sebbene Grok non fosse progettato per generare immagini di nudo integrale, gli utenti avrebbero aggirato la restrizione chiedendo al sistema di alterare foto reali in modo che i soggetti apparissero con «bikini trasparenti, poi con bikini fatti di filo interdentale, collocati in pose sessualizzanti e piegati in avanti in modo da rendere visibili i genitali», si legge nella causa.
La funzione di generazione di immagini è stata limitata agli utenti paganti il 9 gennaio, con ulteriori restrizioni tecniche introdotte il 14 gennaio. In un post pubblicato su X il 16 gennaio, Musk ha dichiarato di non essere a conoscenza di immagini di minori nudi generate da Grok. «Letteralmente zero», ha scritto. «Quando gli viene chiesto di generare immagini, si rifiuta di produrre qualsiasi cosa illegale, poiché il principio operativo di Grok è rispettare le leggi di qualsiasi Paese o Stato. Possono verificarsi casi in cui un hacking avversario dei prompt produca risultati inattesi. Se accade, correggiamo immediatamente il bug».
Il Center for Countering Digital Hate riferisce invece di aver analizzato un campione casuale di 200.000 immagini tra i circa 4,6 milioni prodotti da Grok tra il 29 dicembre 2025 e l’8 gennaio 2026. Sulla base di questo campione, l’organizzazione stima che Grok abbia generato circa tre milioni di immagini sessualizzate in quel periodo, tra cui circa 23.000 che raffigurerebbero minori. Una delle immagini generate da Grok, secondo il gruppo, mostrava sei ragazze molto giovani in micro bikini ed era ancora pubblicamente disponibile su X al 15 gennaio.
La seconda querelante ha dichiarato di essere stata informata dalle forze dell’ordine il 12 febbraio 2026 di essere stata presa di mira. Secondo l’esposto, la persona che gestiva il server Discord avrebbe utilizzato fotografie Instagram che la ritraevano in un bikini blu, in spiaggia, lo scorso ottobre per generare immagini di lei senza vestiti. Il presunto responsabile è stato arrestato a dicembre, afferma la causa.
Le tre querelanti sostengono di aver subito gravi danni emotivi. La loro causa mira ad attribuire a xAI la responsabilità della creazione e della distribuzione del presunto materiale di abuso sessuale su minori e chiede un processo con giuria.















