C’è chi usa l’intelligenza artificiale per creare materiale pedopornografico | Rolling Stone Italia
Attualità

C’è chi usa l’intelligenza artificiale per creare materiale pedopornografico

Nei forum del dark web hanno iniziato a diffondersi delle vere e proprie guide per realizzare immagini fotorealistiche di abusi su minori

C’è chi usa l’intelligenza artificiale per creare materiale pedopornografico

Le opportunità offerte dagli algoritmi di intelligenza artificiale alla generazione di immagini ha prevedibilmente aperto le porte agli utilizzi più disparati. Ma accanto a chi tenta di realizzare materiale pubblicitario a costo zero e alle sperimentazioni di artisti visuali, da subito si è affermato un mercato – nemmeno troppo nascosto – di immagini pedopornografiche “sintetiche” realizzate tramite software alla portata di chiunque. Come svelato da inchieste del Washington Post e della Bbc, il materiale viene poi venduto tramite abbonamento mensile su siti mainstream, sfruttando sistemi di controllo inadeguati.

L’esplosione dei generatori di immagini IA, che aumentano di continuo la velocità e la qualità dei risultati offerti, ha visto da subito l’affermarsi di fenomeni illegali e sotterranei, come l’estorsione sessuale tramite deepfake. Nelle chat di forum presenti nel dark web hanno iniziato a diffondersi anche delle vere e proprie guide per realizzare immagini fotorealistiche di abusi su minori sfruttando i tool a disposizione. La semplicità del mezzo, che a partire da stringhe di testo consente di creare qualsiasi tipo di immagine, richiede un livello minimo di conoscenza tecnica, rendendolo accessibile a chiunque e consentendo la produzione di un numero infinito di contenuti a partire da un singolo comando.

I software di compagnie private come Midjourney o Dall-E sono corse presto ai ripari con controlli più stringenti, vietando la produzione di contenuti a sfondo sessuale ed eliminando dai database qualsiasi immagine esplicita. La scelta, di conseguenza, sembra essere ricaduta su Stable Diffusion: un generatore nato dalla collaborazione tra accademici e aziende, che di recente ha rilasciato al pubblico anche una versione open source.

La licenza richiede agli utenti di non utilizzare il software «per sfruttare o danneggiare in alcun modo i minori», svelando di essere consapevole del problema. Una volta scaricato sul proprio computer, però, è possibile eludere facilmente le regole e le misure di sicurezza inserendo alcune righe di codice. Questo permette agli utenti di addestrare l’intelligenza artificiale a proprio piacimento, utilizzando anche dei database di immagini che raffigurano reali abusi su minori. L’azienda aveva difeso la scelta dell’open source, dichiarando alla testata statunitense The Verge che le responsabilità etiche e legali dell’utilizzo del programma ricadono solo sugli utenti e che la produzione di contenuti illeciti rappresenta una percentuale irrisoria sul totale.

Anche se le immagini pedopornografiche realizzate tramite IA non sono ancora disciplinate dalla legge, dal 2006 in Italia viene punito il possesso, la creazione e il commercio di «pornografia minorile virtuale», realizzata con «tecniche di elaborazione grafica». Allo stesso modo, anche Regno Unito e Stati Uniti considerano illegali le riproduzioni di abusi che risultino indistinguibili da situazioni reali, indipendentemente dal fatto che il minore raffigurato non esista davvero.
Per aggirare le limitazioni, i contenuti pedopornografici sintetici vengono sponsorizzati su piattaforme che hanno sede in Paesi dalle policy più permissive.

Sembra che molti finiscano sul social media giapponese Pivix, generalmente utilizzato dai creators per condividere manga e anime, dove la promozione di immagini pedopornografiche avviene all’interno di gruppi creati appositamente o utilizzando hashtag espliciti. Sebbene la piattaforma abbia dichiarato di aver vietato tutte le rappresentazioni realistiche di violenze sessuali su minori e di aver rafforzato i propri sistemi di monitoraggio, rimane una falla nel controllo delle chat, dove è evidente che i frequentatori sono consapevoli di trovare il materiale che cercano e dove molti offrono anche video e fotografie di abusi reali.

Dopo la sponsorizzazione sugli account Pivix, il percorso di vendita continua su centinaia di profili Patreon, a cui si rimanda tramite link con la promessa di poter accedere a «contenuti non censurati». Il sito consente agli utenti di abbonarsi ai canali di celebrità e creators. Ma anche chi vuole vendere immagini pedopornografiche può diffondere i propri contenuti a pagamento, dando la possibilità di scegliere tra diversi livelli di abbonamento mensile. Come Pivix, anche Patreon ha ribadito alla Bbc di aver adottato una politica di «tolleranza zero», insistendo sul fatto che «i creators non possono guadagnare da contenuti a sfondo sessuale che coinvolgono minori». Eppure i le immagini esistono e la piattaforma ha ammesso che il massiccio aumento nella produzione è stato «angosciante» e ha costretto a «identificarle e rimuoverle in quantità sempre crescenti».

Appare evidente che le aziende produttrici di software e le piattaforme di diffusione di contenuti non siano ancora in grado di rispondere con misure efficaci alle insidie poste dai sistemi IA, nonostante siano consapevoli dell’utilizzo che viene fatto dei loro prodotti e che da questo continuino a trarre profitto. Se incappare in immagini pedopornografiche online diventa sempre più semplice e rischia di normalizzare la sessualizzazione dei minori, la diffusione di contenuti fotorealistici pone un problema anche nell’identificazione delle reali vittime di violenza. I sistemi utilizzati per rilevare e tracciare i contenuti pedopornografici non sono ancora in grado di riconoscere la differenza tra tra quelli reali e quelli generati, rallentando il sistema e imponendo un aumento delle risorse necessarie per distinguere caso per caso.