Le voci degli attori sono davvero a rischio clonazione? | Rolling Stone Italia
Her

Le voci degli attori sono davvero a rischio clonazione?

Scarlett Johansson fa causa a OpenAI, l’azienda di ChatGPT, per averle «rubato la voce». Il problema è che siamo in una zona grigia. E, per giunta, all'ultimo modello sviluppato bastano 15 secondi di registrato per replicarne ogni dettaglio. Al momento il diktat è che non verrà diffuso al pubblico perché troppo pericoloso. Ma chissà

Le voci degli attori sono davvero a rischio clonazione?

Scarlett Johansson a Cannes 2023

Foto: Samir Hussein/WireImage via Getty Images

A un certo punto è sembrato uno scherzo: Scarlett Johansson, che in Lei – Her doppiava un software di cui s’innamorava il protagonista, una prima forma d’allarme verso la distopia in cui viviamo, oltre la «compenetrazione tra reale e virtuale» di ogni libro di sociologia, fa causa a OpenAI, l’azienda di ChatGPT, per… averle «rubato la voce». Giustamente si è definita «scioccata» prendendosela con l’amministratore delegato dell’azienda, Sam Altman. Lui le aveva chiesto in prima persona di «donare» la voce per Gpt-4o, l’ultimo modello d’intelligenza artificiale che ha sviluppato, pensato per essere un assistente «umanizzato» con cui, tra l’altro, farsi due chiacchiere – e viene da sé che una voce come quella dell’attrice avrebbe fatto fortuna, oltre che ridere, visti i precedenti. Altro che Alexa e concorrenza varia.

Lei aveva declinato l’offerta, e fin qui niente di strano. Cioè, questioni etiche: da tempo ci si chiede fino a che punto debba spingersi l’AI in territori come questi, quanto sia giusto o meno che prodotti del genere abbiano la voce che ricorda quella di una persona in carne e ossa e non il solito tono metallico standard, con tutti gli inganni – o anche solo le sensazioni – che una scelta del genere si porta dietro. Appunto, Her. Poi però arriva il fattaccio, cioè che una delle cinque voci previste dal software di OpenAI – ora è stata ritirata, si chiamava Sky – era troppo simile a quella di Johansson. In più, al momento di presentarla su X Altman ha scritto «her», lei, mentre a quanto risulta aveva fatto altre pressioni per convincerla ad accettare, prima della presentazione al pubblico. Insomma, c’è puzza di bruciato. Si andrà per avvocati, pare, la difesa d’ordinanza è di essersi affidati ad attori professionisti, la cui identità è protetta per privacy, e di non aver rubato niente.

Ma il problema, a maggior ragione, resta: si può prendere la voce di qualcuno senza il suo consenso e darla a un’intelligenza artificiale? Da qui: il lavoro di chi sta nel cinema è davvero in pericolo, con il rischio di venire clonati e, perché no, sostituiti? Siamo in una zona grigia, come racconta il New York Times, che ha raccolto le storie di due doppiatori freelance degli Stati Uniti – pesci piccoli, s’intende – adescati con metodi loschi da un start-up per registrare dei campioni «a uso interno dell’azienda», e che poi si sono trovati con l’AI dall’azienda in questione che aveva la loro voce. In America, l’unico Stato ad aver fatto qualcosa è il Tennessee con l’Elvis Act, una legge che rinnova una vecchia norma del diritto d’autore e che, pensando alla musica, ora protegge anche la voce di un artista, che non può essere riprodotta senza consenso. Lì, chiaramente, si è voluta arginare la tendenza dei deep fake che spopolano in rete, quelli per cui sentiamo Frank Sinatra cantare qualsiasi cosa. Il fatto è che serve davvero poco per crearli: al di là delle varie app a portata di tutti, basta dare dei sample vocali alla macchina e questa, più presto che tardi, imparerà a riprodurre materiale inedito partendo da lì. All’ultimo modello sviluppato da OpenAI bastano 15 secondi di registrato, e infatti per ora il diktat è che non verrà diffuso al pubblico perché troppo pericoloso. Ma chissà.

Anche perché, finora, la cornice è stata soprattutto giocosa, surreale o pornografica, come da regola di Internet: lo testimoniano il nuovo album degli Oasis creato con l’AI, tra i tanti, ma anche i vari deepfake a luci rosse con protagonisti personaggi più o meno famosi. In Italia, tra i casi più eclatanti c’è quello per cui Gerry Scotti sui social ha cantato qualsiasi cosa, finché non ha deciso lui stesso di farsi dare una mano dall’intelligenza artificiale e registrare un disco di Natale. Ma qui, appunto, era un gioco, e comunque lui è stato d’accordo a prestarsi – anche se poi ieri, senza sapere chi fosse, Anderson Paak ha condiviso un suo video in cui l’AI gli sostituiva proprio Scotti parecchio nervoso, definendo candidamente «una merda» l’intelligenza artificiale. Ma si rischia che i prossimi assistenti vocali, in Italia, possano per esempio rubare la voce di un Favino o di Luca Ward?

Ebbene, stranamente siamo un’eccezione rispetto agli Stati Uniti. Qui infatti, per attori, artisti e in generale personaggi pubblici il cui timbro ha un carattere distintivo, la voce è inclusa nel generico diritto d’autore che riguarda l’immagine: gli stessi limiti in base ai quali il loro volto non può essere riprodotto – che non prevedono senz’altro di finire in un assistente vocale – valgono per la voce, che non può essere usata, né clonata, senza consenso. Discorso identico per un’imitazione, come quella che in maniera più o meno esplicita dice di aver fatto OpenAI con Johansson: è legale solo se palese, come nel caso di un comico; in casi ambigui, come questo, non è mai ammissibile.

Quindi, tutto alla grande? Eh, insomma. Chiaramente finché gli strumenti di clonazione della voce e dell’immagine continueranno a esistere, sarà comunque difficile metterci un freno, perché in ogni caso si potrà intervenire solo a posteriori. Anche per questo, tornando alla musica, di recente la Sony ha vietato che il suo catalogo possa essere usato per addestrare un’intelligenza artificiale, salvo previo consenso. «Crediamo», si legge sul comunicato, «nel valore degli artisti». Una mossa, ecco, preventiva. Ed è anche uno dei motivi per cui proprio OpenAI non ha rilasciato al pubblico il fatidico modello che impiega 15 secondi a clonare la voce di chiunque: in tempo di elezioni, uno strumento del genere può essere usato non per gioco, ma per creare, magari, falsi messaggi con cui orientare l’elettorato. E lì, dalla distopia à la Her, si passa direttamente a un pericolo per la democrazia. Quindi ottimo così; ma quando non sarà più di votazioni in America, che succederà?

Altre notizie su:  Scarlett Johansson