Rolling Stone Italia

L’intelligenza artificiale ci salverà della meccanizzazione della musica

Sembra una paradosso, ma la nuova tecnologia può aiutarci a liberarci da produzioni standardizzate e aiutarci a esplorare l’ignoto. Lo dimostra il progetto ‘Spleen Machine’ di Alex Braga e dell’Università Roma Tre

Lo sentite questo suono? È la macchina del pop che produce le hit di domani. Musicisti che lavorano con gli stessi software, suoni e ritmi vincenti replicati fino alla noia, parti vocali plasmate digitalmente, musiche messe in griglia eliminando ogni residua parvenza umana: il pop è talmente standardizzato che sembra creato da un computer.

Ci sono tante cose che si possono fare per contrastare questo processo di meccanizzazione della musica, dove la ricerca del consenso è trasformata in una formula matematica che cambia stagione dopo stagione. Alex Braga, dj e musicista, conduttore e autore radiofonico e televisivo, ne ha scelta una paradossale: fare musica collaborando con una intelligenza artificiale.

All’inizio del 2017, Braga ha spedito una e-mail a una mezza dozzina di università italiane ed estere. Era infastidito dalla demonizzazione dell’intelligenza artificiale sui media. «Ricordo un articolo in cui veniva indicato l’anno in cui le macchine avrebbero definitivamente schiavizzato l’uomo: assurdo». La tecnologia lo aveva aiutato a superare i suoi limiti di musicista, «uno che suona tanti strumenti, ma nessuno particolarmente bene», e a realizzare le sue idee. Era convinto che solo rinnovando il linguaggio era possibile spostare un po’ più in là il confine del possibile e fare un buon servizio alla musica. Gli girava in testa l’idea che così come Mozart aveva sfruttato le possibilità espressive della macchina da musica più nuova in quel momento, il pianoforte, così i musicisti contemporanei dovrebbero cercare di disegnare visioni del futuro usando la tecnologia di oggi. «Da tanti anni non c’è più ricerca, non c’è urgenza di portare la musica nel futuro, non c’è qualcosa di dirompente. Se non osiamo noi, chi lo dovrebbe fare?».

In quelle e-mail, Braga spiegava il suo progetto frutto di questi pensieri: creare un’intelligenza artificiale in grado di duettare con un pianista. «Gli unici a rispondere sono stati quelli dell’Università Roma Tre. Lì ho trovato un team di personalità geniali che mi ha aiutato. Vado da loro e chiedo: ho questa idea, è una cazzata o si può fare?», racconta ridendo. «E loro mi rispondono: è una cazzata, ma ci tenteremo». A quanto pare funziona. La collaborazione con i professori Francesco Riganti Fulginei e Antonino Laudani, che già usavano tecniche di intelligenza artificiale per risolvere problemi numerici, ha portato alla definizione di A-Mint. La sigla sta per artificial music intelligence, ma al tempo stesso evoca l’idea di una mentina, una pillola da deglutire per avere un trip.

A-Mint è un’intelligenza artificiale in grado di creare musica reagendo a quel che un vero musicista suona. Dopo quasi un anno di lavoro, è stata usata per la prima volta nello spettacolo Cracking Danilo Rea inaugurato nel dicembre 2017 a Romaeuropa Festival. Mentre il jazzista suonava il pianoforte improvvisando, l’intelligenza artificiale ne analizzava (o crackava, per dirla in gergo informatico) in tempo reale il modo di suonare e lo arricchiva sotto forma di note eseguite da un ensemble digitale virtuale. Il tutto avveniva dal vivo, in un dialogo collaborativo fra uomo e macchina. «Rea rappresentava uno stress test formidabile. È uno che non fa neanche il soundcheck perché dice che sennò si rischia di rovinare la magia. Se funzionava con uno degli improvvisatori più bravi al mondo, allora voleva dire che avevamo fatto centro». Da allora, Braga si è ritrovato a girare per università e conservatori per tenere conferenze e masterclass sull’argomento, è stato nominato allo Starts Prize di Ars Electronica, è stato invitato al Google Arts & Culture Center e al Centre Pompidou. A-Mint aveva passato lo stress test, ed era solo l’inizio.

Le applicazioni più note in ambito musicale di intelligenze artificiali basate su deep learning e reti neurali, così chiamate perché cercano di replicare il funzionamento di un cervello umano, prevedono che la macchina sia addestrata per mesi facendole “ascoltare” musica al fine di creare da zero una canzone o una composizione nello stile che ha imparato. In alcuni casi l’output è grezzo e somiglia a una bozza di canzone, in altri viene rimaneggiato dall’uomo a tal punto da far perdere ogni traccia del lavoro della macchina. «A-Mint non funziona così», spiega Francesco Riganti Fulginei, che a Roma Tre insegna Elettrotecnica ed elettronica. «È un sistema neurale complesso, ovvero più reti neurali che collaborano fra loro e creano musica sul momento». Non c’è niente di meccanico e non c’è alcuna forma di apprendimento pregresso: il sistema viene addestrato mentre il musicista suona. Riavviandolo e abbinandolo per una seconda volta alla stessa sequenza di note suonate al pianoforte, produrrà un accompagnamento diverso.

A-Mint si adatta agli schemi del pianista e questa è una caratteristica unica, afferma Riganti Fulginei. L’intelligenza è anche sensibile alla bravura di chi suona. Fatelo suonare con Stefano Bollani e Ludovico Einaudi e produrrà due accompagnamenti radicalmente diversi. Il team che l’ha creata se n’è reso conto ai primi stadi di sperimentazione. «Quando la stavamo programmando», ricorda Riganti Fulginei, «sembrava non funzionare. Noi suonavano e lei tirava fuori suoni strani. Un giorno l’abbiamo fatta provare a Danilo Rea e il risultato è stato stupefacente». In altre parole, l’intelligenza artificiale impara bene quando ha un buon maestro. «Inoltre, se un pianista ha uno stile spettacolare, anche lei gli somiglierà. Per dirlo in gergo: se vuoi menare, quella mena».

Anche se l’intelligenza artificiale crea musica autonomamente, il programmatore ha la facoltà di assegnare ai vari output il suono di uno strumento e altri parametri fra cui il carattere ad esempio audace o conservativo della musica. È l’unico intervento umano. Non stiamo cioè parlando di un algoritmo a cui l’uomo ha insegnato di reagire con l’azione Y allo stimolo X, né ragiona in termini di ritmi, melodie e armonie. «È un punto importante», spiega Riganti Fulginei. «Oggi si spacciano per intelligenza artificiale dei semplici modelli numerici applicati alla teoria musicale. A-Mint non è un software di armonizzazione, per quanto sofisticato. È pura intelligenza artificiale. Capisce gli schemi del musicista che suona e cerca quindi di arricchirne la musica. È libera da ogni struttura teorica e ha librerie proprietarie che ci permettono di farla lavorare in tempo reale. Ricordo la prima volta che Danilo Rea ci ha suonato assieme. Lui ripeteva la stessa nota e A-Mint reagiva ogni volta in modo diverso, suonando ora una terza, ora una quinta. Capirne la logica era impossibile».

La versione evoluta dell’intelligenza artificiale impiegata nello spettacolo di Danilo Rea è stata usata nell’EP di Alex Braga Spleen Machine, che uscirà il 3 luglio per l’etichetta berlinese !K7. Il disco segna l’inizio di una nuova era per A-Mint che va oltre l’improvvisazione duettistica che Braga ha sperimentato con Rea e in seguito con Francesco Tristano. Il sistema è pensato per le improvvisazioni dal vivo e non ha per così dire memoria: i suoni che vengono prodotti svaniscono. Per realizzare il disco, Braga ha dovuto perciò registrare molta musica che è stata poi combinata con il fonico Francesco Donadello e il produttore Robert Lippok (To Rococo Rot). «È stato come avere superpoteri che mi permettevano di amplificare le mie idee. Una volta effettuate le registrazioni, con Robert e Francesco abbiamo tolto le parti che non ci sembrano rilevanti e abbiamo lavorato sui suoni».

A-Mint funziona grazie a piccoli “cervelli” – Braga sul palco di solito ne porta 16, ma possono essere molti di più – che sono programmati per pensare musicalmente ognuno in modo diverso. «C’è il cervello più riflessivo, c’è quello più audace che crea dissonanze interessanti, c’è quello veloce e super smart che è più prevedibile, ma molto rimato. A ognuno può corrispondere il suono di uno strumento. Ogni volta che suono un accordo, quel cervello emette una quantità di note che stanno bene. Un algoritmo evolutivo tiene conto di quello che ho suonato fino a quel momento. Si crea così un effetto di hyperloop creativo che va dal molto semplice al complesso a seconda di quanto spingi sull’acceleratore. E tutto questo senza alcuna base, senza fissare tonalità o bpm».

Se si ascoltano le quattro tracce di Spleen Machine senza sapere come sono state prodotte, è difficile immaginare che quegli arrangiamenti stratificati siano stati creati suonando semplicemente il pianoforte e lasciando a A-Mint il compito di creare un mondo di suoni attorno ad esso. Si ha l’idea che vi sia un vero interplay fra uomo e macchina. Lippok usa una bella immagine per descrivere il mondo di suoni che s’anima attorno al pianoforte: sono algoritmi che danzano con gioia febbrile attorno alle composizioni di Braga. Ovviamente non c’è vera gioia, l’intelligenza artificiale non ha coscienza di quel che sta creando, eppure la musica ha una sua coerenza emotiva. Parte del suo fascino deriva dal rapporto fra il gesto musicale dell’uomo e il risultato inconoscibile prodotto dalla macchina.

A dispetto di quanto ci ha insegnato la letteratura di fantascienza, le macchine non provano sentimenti. Il titolo dell’EP Spleen Machine è un ossimoro evocato dalla copertina dove un robot umanoide dell’Istituto Italiano di Tecnologia è fotografato nell’atto di pregare, inginocchiato. È un’immagine potente e provocatoria. Braga si tiene equidistante sia dall’ideologizzazione della tecnologia, sia dalle ansie di chi considera l’intelligenza artificiale un grave pericolo per l’uomo. Guarda quell’immagine con gli occhi dell’umanista digitale convinto che la macchina senza un cervello umano non sia nulla e che nemmeno la potenza di calcolo, la velocità e l’efficienza le permettono di accedere al mondo delle idee, dei sentimenti e dello spirito. Un robot non prova emozioni, il gesto di pregare è privo di significato.

La versione 3.0 di A-Mint a cui si sta lavorando a Roma Tre prevede alcune novità. Il sistema potrà scegliere autonomamente lo strumento da suonare e potrà continuare a fare musica se il pianista si ferma, cosa oggi impossibile. Verranno utilizzati canali audio e non solo MIDI com’è adesso, e si potranno registrare schemi cognitivi da usare in una successiva performance. «Vogliamo creare una nuova frontiera musicale», afferma Riganti Fulginei. «Riprodurre l’esistente non ci interessa. La musica evolve, è un processo naturale. Un tempo andavano forte i chitarristi veloci. Quanti ce ne sono oggi? C’è una scena in Star Wars: Episodio III – La vendetta dei Sith in cui Anakin e Palpatine sono spettatori di una sorta di concerto: una nube gigantesca con bassi che vibrano. È una rappresentazione dell’arte del futuro. Non dobbiamo averne paura».

Dobbiamo aver paura, piuttosto, della standardizzazione della musica. Secondo Alex Braga, la produzione contemporanea è spenta per via di quanto è stata ingabbiata. «Sempre gli stessi suoni e pattern, tutto programmato. Così si impoveriscono offerta e domanda, e non nasce alcunché di nuovo. Hai presente la varietà delle outtake dei Beatles? In passato la gente entrava in studio, suonava dal vivo senza alcuno spartito, improvvisava sul mood e il produttore sceglieva la take migliore». La ricerca di una formula da replicare e la disponibilità di hardware e software che permettono di creare musica senza riflettere su di essa hanno creato questa forma di meccanizzazione del pop. Improvvisare con l’accompagnamento di una intelligenza artificiale permette di far uscire la musica dalla gabbia in cui è stata chiusa. «È un bel paradosso: abbiamo usato una tecnologia futuristica come A-Mint per riuscire a fare le cose come in passato. In vent’anni di musica elettronica non ho mai provato il senso di libertà che provo suonando con A-Mint. Prima, salivo sul palco e sapevo che cosa sarebbe successo. Sai cosa si dice di noi dj, no? Che non facciamo che schiacciare play e un po’ è vero».

A-Mint e Spleen Machine sono una reazione all’uso generativo dell’intelligenza artificiale sperimentato in questi anni. È il caso, ad esempio, di un team di Google che ha addestrato un’intelligenza artificiale facendole ascoltare corali di Bach per ottenere un’imitazione del genio tedesco. «Creare pseudo opere d’arte generative non ha senso», dice Braga. «È un uso improprio della tecnologia e lancia un messaggio aberrante. Non mi stupisce che la gente poi ne abbia paura. L’arte è solo significato. Il significante non è arte, è artigianato. Una macchina, per quanto performante, non sa perché sta suonando certe note. Non sa che facendo seguire un Sol a un Mi è un tuffo verso l’infinito e verso la malinconia. Non lo sa perché non ha mai pianto, non ha mai sudato, non ha mai scopato, non sa che cosa sono il dolore e la gioia. Non sa niente. Ecco che cos’è l’arte, è mettere dentro un significante questo enorme mondo metafisico. Un robot potrà anche inginocchiarsi, ma non avrà mai un’illuminazione».

Iscriviti