Il piccolo sporco segreto dell’AI nelle canzoni | Rolling Stone Italia
Il futuro è un’ipotesi

Il piccolo sporco segreto dell’AI nelle canzoni

È l’Ozempic di autori, musicisti e produttori: tutti la usano, nessuno ne parla. Dalla scrittura ai demo fino alle registrazioni, ecco come l’intelligenza artificiale è entrata negli studi cambiando la musica che ascoltiamo

Illustrazione: Matthew Cooley

«In certi ambienti è una parolaccia», dice David Baron, il produttore dei Lumineers. «Conosco gente che odia l’AI con tutto il cuore, ma non andrebbe mai in giro a dirlo». Per la cantautrice Michelle Lewis «la gente non vuole ammettere quanto la usa». La formula che utilizza per descrivere l’omertà che circonda l’uso dell’intelligenza artificiale è «don’t ask, don’t tell». Per Mikey Shulman, CEO di Suno, l’AI è «l’Ozempic dell’industria musicale: tutti la usano, nessuno ne parla».

Il mondo della musica sta attraversando una fase carica di tensione e di attesa. Secondo Baron chi ammette di fare uso dell’AI subisce un contraccolpo. Teddy Swims l’ha vissuto sulla pelle quando a novembre ha scritto sui social che gli strumenti basati sull’AI sono incredibili e ha dovuto fronteggiare la reazione negativa dei fan. E però, il livello di indignazione di artisti e addetti ai lavori non è più quello di un paio d’anni fa, quando sono venuti fuori i primi cloni creati con l’AI come il Drake-Weeknd di Heart on My Sleeve. «Nessuno vuole restare indietro o sembrare antiquato», ammette Lewis, che ha scritto canzoni per Cher, Hillary Duff e altri, ed è co-fondatrice dell’organizzazione non profit Songwriters of North America.

Gli strumenti alimentati dall’AI stanno provocando cambiamenti profondi nel modo in cui la musica viene realizzata a tutti i livelli, ma la cosa avviene per lo più dietro le quinte. L’intelligenza artificiale è presente negli studi di registrazione e nelle digital audio workstation di molti dei grandi produttori e autori del mondo. Per Lauren Christy dei Matrix, che ha scritto per gente come Avril Lavigne, Britney Spears e Liz Phair, «non si torna più indietro».

Quanta musica fatta con l’aiuto dall’AI è presente nelle classifiche? Baron non conosce direttamente artisti o produttori che hanno presentato alle etichette musica generata totalmente o in parte con l’AI, ma è sicuro che sia successo. «Non ci sono ancora software di rilevamento dall’AI efficaci», dice Lewis, «e quindi, se non riesci ad accorgerti se viene usata, come puoi intervenire?». In pratica, l’industria si basa sulla buona fede. Il CEO di Sonarworks ha verificato in una ricerca condotta tra alcuni produttori musicali che ci sono «artisti che presentano canzoni generate dall’AI come se fossero loro a etichette che non sono in grado di capirlo».

I professionisti non chiedono a programmi come Suno canzoni complete da caricare su Spotify. Ma Young Guru, produttore, dj e ingegnere del suono di Jay-Z, dice che tra i produttori hip hop è ormai consuetudine creare campioni funk e soul con l’AI invece di ottenere la licenza della musica originale o assumere musicisti. Guru stima che «più della metà» dell’hip hop basato sui sample oggi viene realizzato così. Lui continua a pagare per i sample o ad assumere musicisti per suonarli, ma i produttori che non hanno budget o voglia ora hanno una scorciatoia. «Stanno diventando molto bravi con i prompt. Prima era solo: “Fammi una cosa soul anni ’60”, ora è: “Dammi una musica anni ’60 come se fosse stata registrata alla Motown e scritta da questo autore”, oppure “Dammi una musica anni ’70 come se fosse stata registrata alla Stax, se l’avesse scritta questo tale autore e con questo bassista che suona”».

Nella ricerca di Sonarworks condotta su più di 1100 produttori, ingegneri del suono e songwriter, sette intervistati su dieci hanno detto di avere usato almeno occasionalmente strumenti di AI. Uno su cinque li utilizza regolarmente. La maggior parte usa tool molto specifici per compiti limitati che fanno risparmiare tempo, come restaurare un file audio, separare gli strumenti e le voci all’interno delle canzoni (la cosiddetta separazione degli stem) o per il mastering dei dischi. Per Baron il livello della separazione degli stem con la AI è diventatp fenomenale. «Ieri sera ho isolato una voce e sembrava registrata da sola in un vero studio, una cosa che, tipo, anche solo due o tre anni fa non sarebbe stato possibile. È un cambiamento enorme». Ora si può riprodurre il feeling sonoro di un altro disco in pochi minuti, una cosa che in passato richiedeva ore se non giorni. «Posso prendere un album che adoro per come è mixato», dice Guru, «tipo 2001 di Dr. Dre, scegliere una canzone e imitare il timbro del mix».

Artisti e produttori sono divisi sull’uso dell’AI per correggere le voci o addirittura per aggiungere voci generate dall’AI. «C’è gente che usa voci AI per arricchire i cori anche su dischi di una certa importanza», assicura Christy. Lei non le usa, ma ammette qualità delle parti vocali è notevole. «I robot che cantano con l’AI hanno il groove ed entrano perfettamente dietro il backbeat. Uno dei cantanti più incredibili con cui lavoro mi ha detto: “Odio questo robot, canta meglio di me”».

Se Swims ha corretto qualche stonatura con l’AI mentre era in Australia, cosa che gli ha evitato «di andare in studio e rifare la frase quindici volte, spendendo tempo, soldi ed energie», Charlie Puth ha usato uno strumento chiamato Replay per provare rapidamente idee per il nuovo album Whatever’s Clever. «C’è un’impostazione che prende una traccia vocale e la fa sembrare come se cantassero otto o dieci persone. La uso per capire se voglio veramente un effetto coro in quel pezzo, però per la tolgo e la sostituiscono con voci autentiche. È questo il modo giusto di usare l’intelligenza artificiale». C’è per lui una linea non superare quando si usa l’AI generativa su una traccia finita: «Tropo ripugnante fare una canzone, e poi scrivere “cambiala” e ottenere una produzione completamente diversa con tutti gli stem».

Il produttore Nathan Chapman, che ha lavorato con Taylor Swift, Keith Urban e altri, non usa l’AI per voci o strumenti, ma ha ricevuto richieste di utilizzarla dopo che il testo di una canzone incisa è stato cambiato. «Ho detto di no, perché non avevo ancora imparato come farlo, ma è l’artista che deve decidere. Per quanto mi riguarda, preferirei semplicemente far cantare quella parte di nuovo».

Gli autori di canzoni a Nashville e Los Angeles usano strumenti come Suno per trasformare testi e accordi in demo arrangiati da proporre ad artisti ed etichette. «In privato ti dicono che è favoloso», spiega Lewis. «Non devi dividere i diritti con altri, puoi scrivere da solo, non devi pagare un produttore. Rende il processo più fluido». Di recente una «grande star» con cui Christy lavora le ha scritto chiedendole se avesse qualche canzone per lei. È riuscita a mandarele subito una demo. «Melodie, testo e accordi erano tutti miei». L’artista ha risposto immediatamente che voleva registrarla. «L’AI mi ha fatto risparmiare giorni di lavoro».

Per ogni lavoro semplificato dall’AI, c’è qualcuno che perde il posto: un musicista, un produttore, un assistente dell’ingegnere del suono che aiuta a fare i mix, il proprietario di uno studio di registrazione o magari un autore degli anni ’70 che vive delle royalties. Chapman spera che le porte che l’AI apre agli amatori possano portare, in futuro, a un boom per i musicisti e i proprietari di studi. Ma il risultato per ora è che «ci sono meno session, sta danneggiando chi lavora ai demo».

«Lavoro nel campo dell’animazione per bambini», dice Lewis, «dove è facile che il lavoro venga tolto dall’AI e infatti c’è un calo degli ingaggi». Lo dice chiaramente: «è finita» l’era della stock music che viene concessa in licenza alle aziende per programmi tv, radio e altri media. Alcune grandi aziende, tra cui Disney, non usano musica generata dall’AI per via dei possibili problemi di copyright, ma le società di produzione più piccole che devono risparmiare «stanno cercando di capire fin dove possono spingersi senza rischiare».

Baron è preoccupato in particolare per i produttori più giovani. È svolgendo i compiti più ordinari che un tempo spettavano agli assistenti ingegneri – ovvero quelli oggi compiuti dall’AI – che «si formano i giovani produttori. La nostra generazione prima o poi sparirà e c’è bisogno di venticinquenni che hanno fatto esperienza». I produttori in erba devono stare in studio, assistere alle session, vedere da vicino come interagiscono i musicisti. «O forse, nello scenario migliore, gli assistenti potranno semplicemente fare più cose».

Poi ci sono le ricadute nel campo della creatività. Di recente, il partner di scrittura di Lewis ha prodotto una demo con l’AI, ma la voce non era giusta. Così Lewis ha deciso di cantare direttamente la parte e si è accorta di non essere in grado perché nella linea vocale non c’erano pause per respirare. «Può succedere di scrivere una canzone che tecnicamente un essere umano non può cantare».

Chapman teme la “demoite”, ovvero la tendenza degli artisti ad affezionarsi a una demo e impuntarsi per cercare di replicarla. Le demo generate con l’AI danno a questo fenomeno una piega nuova e strana, perché possono suonare perfette e allo stesso tempo sbagliate. Con le demo umane, «di solito il problema è che le registrazioni sono fatte male, ma sono supercool», dice Chapman. «Non ho ancora sentito una demo di Suno che suonasse, tipo, brutta ma bella. Sono tutte semplicemente… buone».

Ci sono piccoli indizi sonori dell’uso dell’AI, l’equivalente della tendenza di ChatGPT a usare trattini lunghi o determinate espressioni. «Inserisce battute strane», dice Baron, «tipo una misura in 2/4 che nessuno metterebbe lì». A un suo amico batterista, un virtuoso che suona con artisti da miliardi di stream, è stato chiesto di replicare una parte di batteria generata dall’AI e «l’ha trovato umiliante».

Christy fa da mentore a giovani aspiranti songwriter e, come Chapman, apprezza il modo in cui l’AI ne facilita la vita. «Magari una giovane autrice che potrebbe essere la prossima Diane Warren non sa cantare. Non ha soldi per fare delle demo. L’AI è lo strumento perfetto per lei, perché può comunque mantenere la proprietà della sua canzone e fare ascoltare i suoi brani a un livello di produzione piuttosto alto».

Il lato negativo è che più gente accedere all’industria musicale e più ridotte saranno le fette della torta da dividere. «Siamo già inondati di contenuti», commenta Baron. «È già difficilissimo farsi notare adesso che ogni giorno vengono caricate da 60 mila a 100 mila canzoni. Cosa succederà quando grazie all’AI saranno 300 mila? E ci arriveremo». Nessuno, dice Young Guru parlando dei rendimenti sempre più bassi della musica, «vende più, tipo, l’equivalente di 10 panetti di coca. Sono solo un sacco di dosi piccole».

Un problema enorme e irrisolto è legato alle questioni di copyright. Ci sono interrogativi ancora aperti su quali cataloghi sono stati usati per addestrare servizi come Suno e Udio; su come capire se e quali brani sono stati ricombinati; e su come pagare artisti e autori per queste operazioni. Anche chi è entusiasta dell’AI dice che non la userà finché la questione non sarà risolta. «Ho paura», dice Christy, «non voglio che venga rilevata la presenza dell’AI».

Nel frattempo, i servizi musicali basati sull’intelligenza artificiale si fanno pubblicità. «Organizzano camp», dice Lewis, «lo fa Udio, lo fa Suno. Presentano il software ai professionisti». Grandi autori vengono invitati in studi eleganti per imparare a usare strumenti come la separazione degli stem e la personalizzazione del suono. «Non sono stupidi. Stanno cercando di farci adottare questi strumenti».

Nonostante sia preoccupato, David Baron non è tra quelli che pensano che il mondo stia finendo. Per spiegarlo tira fuori un paragone con la ceramica. «Ci sono ceramisti che fanno pezzi bellissimi che compri a caro prezzo, sono splendidi e unici. Ma puoi anche comprare delle ceramiche da Target che sono tutte identiche e va benissimo così. Non c’è niente di sbagliato in nessuna delle due cose. Possono convivere».

La priorità di Michelle Lewis è assicurarsi che i songwriter abbiano voce in capitolo mentre etichette discografiche e aziende di AI cercano di risolvere le questioni relative ai diritti d’autore. «Quello che abbiamo imparato dallo streaming è che se non sei al tavolo in cui si decide come dividere la torta, allora sei nel menu».

Young Guru dirige la scuola Roc Nation per aspiranti professionisti della musica presso la Long Island University di Brooklyn, fondata da Jay-Z. Ai giovani dice di concentrarsi su qualcosa che l’AI non può sostituire: «L’interazione fisica fra gli esseri umani». Dice agli studenti di non inviargli e-mail. «Incontriamoci di persona».

Curiosamente, secondo alcuni sarebbero proprio i giovani ad avere i maggiori dubbi sull’AI. In un sondaggio tra produttori musicali condotto dalla libreria di sample Tracklib, gli intervistati più giovani, quelli sui 20 anni, hanno espresso le opinioni più negative sull’intelligenza artificiale. Christy dice che le figlie poco più che ventenni, anch’esse musiciste, «hanno idee molto chiare sui suoni di plastica». La reazione alle tecnologie è molto punk. «Andremo nella direzione opposta, il prossimo trend saranno le voci stonate su una chitarra acustica». Per dirla con Charlie Puth, «non credo che l’AI diventerà abbastanza intelligente da imitare le imperfezioni umane. A diventare più intelligenti saremo noi esseri umani».

Da Rolling Stone US.