Deepfake e AI: decine di foto false di Taylor Swift invadono il web. E ora è un problema della Casa Bianca | Rolling Stone Italia
look what you made me do

Deepfake e AI: decine di foto false di Taylor Swift invadono il web. E ora è un problema della Casa Bianca

Negli ultimi giorni i social sono stati riempiti di immagini sexy o pornografiche realizzate con l'AI. E ora il caso è politico

Deepfake e AI: decine di foto false di Taylor Swift invadono il web. E ora è un problema della Casa Bianca

Taylor Swift agli MTV EMA 2022

Foto: Dave Hogan/Getty Images for MTV

Taylor Swift ha avuto una settimana complessa. Negli ultimi giorni infatti, su X sono diventate virali foto di natura pornografica che la ritraggono. Le foto però sono finte, dei deepfake realizzati con l’intelligenza artificiale. E ora di questo problema si parla anche in politica.

SAG-AFTRA (sindacato statunitense che rappresenta circa 170 000 lavoratori del settore dei media e dello spettacolo) si è espresso contro le immagini, definendo il contenuto “sconvolgente, dannoso e profondamente preoccupante” in una dichiarazione rilasciata venerdì.

“Lo sviluppo e la diffusione di immagini false – soprattutto quelle di natura oscena – senza il consenso di qualcuno deve essere reso illegale”, ha affermato il sindacato, chiedendo anche sostegno al Preventing Deepfakes of Intimate Images Act del deputato Joe Morelle di intervenire. “Come società, abbiamo il potere di controllare queste tecnologie, ma dobbiamo agire ora prima che sia troppo tardi. Sosteniamo Taylor e le donne di tutto il mondo che sono vittime di questo tipo di furto della loro privacy e del diritto all’autonomia”.

Le immagini hanno stimolato un dibattito significativo online e a Capitol Hill sulla necessità di maggiori protezioni contro l’intelligenza artificiale e la moderazione dei contenuti. Uno dei tweet con un’immagine esplicita della pop star generata dall’intelligenza artificiale è rimasto sulla piattaforma per circa 17 ore e ha raccolto 45 milioni di visualizzazioni prima di essere definitivamente rimosso.

Alla domanda sull’incidente durante una conferenza stampa venerdì, la portavoce della Casa Bianca Karine Jean-Pierre ha definito le immagini “allarmanti”. Jean-Pierre ha invitato le società di social media a applicare con maggiore forza le politiche di moderazione dei contenuti e ha inoltre affermato che il Congresso dovrebbe agire per approvare una legislazione protettiva.

“Siamo allarmati dalle notizie sulla circolazione di immagini da voi presentate, immagini false per essere più precisi”, ha detto Jean-Pierre. “Mentre le società di social media prendono le proprie decisioni indipendenti sulla gestione dei contenuti, riteniamo che abbiano un ruolo importante da svolgere nel far rispettare le proprie regole per prevenire la diffusione della disinformazione. Naturalmente il Congresso dovrebbe intraprendere un’azione legislativa”.

Swift non è l’unica donna, famosa o meno, ad essere stata sottoposta alla generazione di immagini esplicite di sé stessa generate dall’intelligenza artificiale senza il loro permesso.

Il deepfake pornografico è uno degli utilizzi più inquietanti della tecnologia che ha colpito figure di spicco dell’intrattenimento, senza dimenticare che questa tecnologia è stata utilizzata anche per creare nuovo materiale senza il permesso degli artisti.

L’utilizzo dell’intelligenza artificiale è stato inoltre uno dei punti chiave delle trattative dello sciopero del SAG dello scorso anno: “bisogna dare priorità alla creatività umana e garantire che l’intelligenza artificiale non non esternalizzare l’arte”.