I progressi della musica composta dai computer
Per ora non è esattamente roba che cantereste sotto la doccia, ma migliora e può avere diverse possibili applicazioni
Lo scorso settembre i siti di news di tutto il mondo hanno parlato della “prima canzone mai scritta da un computer”: si intitolava “Daddy’s Car” e l’aveva composta un software sviluppato dalla Sony Computer Science Laboratory. Il programma, chiamato FlowMachine, funziona in modo apparentemente semplice: i ricercatori hanno inserito nel computer circa 13mila spartiti di canzoni di vari generi musicali, che il software ha analizzato per apprendere come comporre nuove melodie. Un compositore, Benoît Carré, ha scritto le parole della canzone e ha scelto lo stile musicale per le nuove canzoni, il cui spartito è stato generato dal programma: per “Daddy’s Car”, Carré ha impostato uno stile che imitava quello dei Beatles (sembra un po’ “Good Day Sunshine”, infatti).
Carré ha composto un altro brano con il Sony CSL, sullo stile dei compositori classici americani come George Gershwin, Duke Ellington e Cole Porter. In entrambi i casi alla composizione uscita dal computer sono stati aggiunti manualmente dei campioni da altre canzoni realmente esistenti. François Pachet, direttore del laboratorio, ha spiegato che anche se la maggior parte dei software di intelligenza artificiale sono usati per comporre musica strumentale, la loro applicazione più complessa riguarda la produzione di brani brevi e orecchiabili. Il Sony CSL sta trattando con alcuni gruppi, come i Phoenix, perché interpretino alcuni brani composti dal loro programma.
Quello del Sony CSL è uno dei molti progetti nel mondo che stanno tentando di creare software in grado di comporre musica indistinguibile da quella composta dagli umani: ad aprile uscirà un disco composto interamente da FlowMachine, ma comprensibilmente la musica scritta dalle intelligenze artificiali ha, almeno per ora, obiettivi che non sono arrivare in testa alle classifiche. Le applicazioni più immediate e sulle quali si pensa ci sia più mercato sono infatti quelle che riguardano, per esempio, le colonne sonore di videogiochi o pubblicità. Jukedeck è un altro tipo di software per comporre musica, sviluppato da due amici che non hanno studiato ingegneria ma musica: Patrick Stobb e Ed Newton-Rex, entrambi 29enni, si sono laureati all’Università di Cambridge e si sono appassionati alla programmazione per caso, dopo aver assistito a una lezione ad Harvard, dove studiava la ragazza di Newton-Rex. I due hanno fondato Jukedeck nel 2012, trasformandola in una delle startup più rilevanti tra quelle che si occupano di intelligenze artificiali applicate alla musica, raccontata di recente anche da un articolo sul New York Times.
Jukedeck funziona più o meno come FlowMachine: nel software vengono caricati centinaia di spartiti, che vengono analizzati per capire quali sono le probabilità che una certa nota ne segua un’altra, quali sono le più frequenti progressioni di accordi, o i ritmi più diffusi. Alla base dei software di questo tipo c’è la tecnologia delle reti neurali artificiali, modelli matematici ispirati ai neuroni del cervello umano che risolvono i problemi ricevuti tramite segnali esterni, trasmettendo ed elaborando le informazioni attraverso una rete di milioni di connessioni. Un sistema di classificazione permette poi al programma di riconoscere e ricreare molti generi musicali diversi. Il processo che crea la musica si divide quindi in composizione e sintesi: la prima consiste nella scrittura dello spartito, la seconda nella sua trasformazione in una traccia audio.
I ricercatori di Jukedeck hanno recentemente annunciato che inizieranno a sfruttare le potenzialità dell’intelligenza artificiale non solo nella fase della composizione, ma anche in quella della sintesi, per la quale fino ad ora si erano limitati ad applicare metodi più classici, come i normali simulatori virtuali di strumenti musicali. Il primo esperimento di composizione di questo tipo è stato un breve brano, che hanno detto essere «la prima volta che un computer scrive e produce una canzone, dall’inizio alla fine, usando soltanto tecniche di apprendimento automatico. Tutto quello che abbiamo specificato è stato il genere e la durata: tutto il resto è stato composto dall’intelligenza artificiale». Jukedeck spera, affidando al software anche la fase di “esecuzione” della musica, di rendere il processo compositivo più lineare.
Si ritiene che la prima musica scritta da un computer sia la “Iliac Suite”, composta nel 1957 alla University of Illinois at Urbana-Champaign da un computer programmato dal compositore Lejaren Hiller, che la eseguì poi con il suo quartetto d’archi.
Anche Google sta facendo esperimenti con le intelligenze artificiali e la musica: il progetto Google Brain ha presentato lo scorso giugno Magenta, un software per la composizione musicale.
DeepMind, la società britannica controllata da Google che si occupa di intelligenza artificiale, ha fatto un esperimento singolare e insolito: ha caricato dei campioni di pianoforte in un software utilizzato per creare file audio, soprattutto discorsi. Il programma, che si chiama WaveNet, non aveva mai ricevuto istruzioni su come funziona la musica, e quando ha dovuto elaborare i file audio originali ha prodotto una serie di brevi brani da 10 secondi, che sembrano jazz sperimentale.
Mathieu Peudupin, un musicista rock francese, ha spiegato al New York Times che lavorare con un programma di intelligenza artificiale lo ha «portato in posti in cui non sarei mai andato da solo», e ha paragonato l’esperienza a lavorare con un altro membro di una band. Se finora non c’è stata una vera preoccupazione tra i musicisti riguardo alla possibilità di essere sostituiti da un computer, Stobb crede che non ci sia una regola che dica che i computer, in futuro, non possano diventare bravi come gli umani a scrivere la musica. Soprattutto per i videogiochi, che richiedono colonne sonore lunghissime (praticamente infinite), i computer potrebbero risolvere molti problemi, potendo produrre brani pressoché infiniti ed evitando alle case produttrici di dover riprodurre in loop una certa musica.
Newton-Rex ha spiegato che le applicazioni più interessanti arriveranno quando (e se) i software saranno in grado di comporre musica in tempo reale, a seconda di quello che sta succedendo all’ascoltatore: musica incalzante se è in un momento concitato di un videogioco, o musica stimolante se sta facendo jogging, per esempio. Ma Jukedeck chiede soltanto poco più di 20 dollari per poter usare una composizione del suo programma, e questo è attraente soprattutto per le aziende che vogliono risparmiare sulla musica delle proprie pubblicità. Stobb ha confermato che la divisione britannica di Coca-Cola paga un abbonamento mensile al servizio.