Chi fa suonare bene le canzoni
Il complesso e trascurato lavoro dei mix engineer, gli ingegneri del suono, spiegato dall'italiano che lo ha fatto per l'ultimo disco di Kanye West
Con la musica digitale – “liquida”, non fisica come quella stampata sui supporti come vinili e CD – una delle tante cose a essere cambiate è l’attenzione rivolta a tutte quelle persone che stanno dietro a un disco. Quando esce un nuovo album la maggior parte delle informazioni testuali che lo accompagnano sui servizi di streaming sono il titolo e l’artista, spesso i collaboratori, talvolta gli autori se non coincidono con gli interpreti.
Non ci sono più, o quasi, i lunghi elenchi di persone che erano contenuti nei libretti dei CD o sulle buste che contengono i vinili. Anche se sono più nascosti, comunque, è spesso possibile trovare abbastanza semplicemente online i nomi dei musicisti che hanno suonato in studio, così come di chi ha coordinato la realizzazione dei pezzi, per esempio decidendo quali strumenti inserire e in che punto della canzone, uno dei ruoli principali dei produttori musicali. A volte nelle retrocopertine dei dischi o nei crediti pubblicati sulle piattaforme di streaming – su Tidal per esempio sono particolarmente esaustivi – si può leggere il nome dello studio dove il disco viene registrato.
È più raro, invece, conoscere il nome dei mix engineer, i cosiddetti ingegneri del suono: sono i professionisti che hanno il compito di pulire e bilanciare tra loro i suoni già registrati in studio o prodotti al computer, aggiungendo anche gli eventuali effetti, per fare sì che vadano a formare una canzone per come siamo abituati ad ascoltarla. Gradevole all’orecchio prima di tutto, ma anche fedele all’idea che ne aveva in origine l’artista, coerente nelle sue varie parti e anche con le altre canzoni che la accompagnano nel disco.
Il loro lavoro può talvolta sovrapporsi a quello dei produttori, e quindi includere un aspetto di direzione artistica, oppure può esserne separato, pur mantenendo sempre uno stretto rapporto con chi le canzoni le ha scritte e suonate, e includendo quindi per forza una componente creativa e di sensibilità musicale. Gli ingegneri del suono, sia quando sono stati anche produttori sia quando non lo sono stati, hanno dato in molti casi un contributo importante all’evoluzione della musica negli ultimi sessant’anni, anche se viene talvolta trascurato. Tra i più noti e influenti della musica degli ultimi decenni, per fare alcuni nomi, ci sono stati Bill Putnam, Glyn Johns, George Massenburg, Chris Lord Alge, Steve Albini e nella nuova generazione Dave Pensado, Toni Maserati, Manny Marroquin.
Il mixaggio di una canzone consiste nell’equilibrio tra i diversi suoni che la compongono. Si interviene sulla frequenza, che si misura in Hertz (Hz) e definisce quanto un suono è acuto o grave; sull’intensità, il volume, che si misura in decibel (dB); e sul posizionamento all’interno di uno spazio stereofonico e, in un certo senso, tridimensionale: è l’effetto che si ottiene quando dalle casse o in cuffia sembra di sentire un suono in lontananza, o provenire da un lato. Non è una fase facoltativa, o propria solo dei dischi più professionali: una traccia musicale non mixata sarebbe inascoltabile. Una traccia musicale mixata male, invece, suona sbilenca al punto che anche un completo profano si può accorgere che qualcosa non va.
Per certi versi il mix non è altro che la riproduzione dei meccanismi che si attivano quando una persona ascolta un concerto dal vivo: il cervello mixa i suoni con l’aiuto dei segnali in arrivo dall’orecchio e dagli occhi. Quando si ascolta un disco, invece, il cervello ha una capacità di comprensione dei suoni più limitata, se non sono bilanciati:
è il mixaggio ad aiutare il cervello a posizionare i suoni all’interno dello spazio “virtuale” di ascolto. Il risultato finale ha un impatto notevole e si percepisce soprattutto se si ascolta un brano prima e dopo il lavoro del tecnico del mixaggio.
Negli ultimi anni le tecniche di mixaggio sono cambiate con l’evoluzione della tecnologia. Fino agli anni Novanta per mixare un disco servivano attrezzature molto costose, tra cui lo strumento principale, il mixer, un oggetto riconoscibilissimo con decine o centinaia di manopole a seconda delle sue dimensioni. All’inizio degli anni Duemila arrivarono sul mercato i primi software professionali per registrare e mixare una canzone: basta installarli sul computer e, in teoria, chiunque può iniziare a produrre musica. Le infinite possibilità di effetti introdotte dai software hanno reso ancora più importante il lavoro degli ingegneri del suono, che spesso hanno scelto di specializzarsi in un solo genere musicale per essere più competitivi sul mercato.
In questo momento uno dei mix engineer più quotati a livello internazionale è italiano ed è conosciuto come Irko. Ha uno studio a Los Angeles e ha mixato Donda, l’ultimo disco del rapper americano Kanye West. In passato aveva lavorato a un altro disco rilevante della storia recente del rap come Kingdom Come di Jay-Z, uscito nel 2006.
Irko spiega al Post che il confronto iniziale tra gli artisti, i produttori e i mix engineer è importante per raggiungere il risultato voluto. «La prima cosa è capire se sono la persona giusta per il brano o l’album che mi è stato proposto», dice. «La possibilità di scegliere aumenta con l’esperienza, ovviamente, e non tutti possono permettersela, ma è essenziale per lavorare bene».
Il primo approccio al mix è quasi ingegneristico: va scritta con precisione la struttura della canzone, il tempo, i cambi e le intersezioni tra strumenti e sezioni, le indicazioni dinamiche come i crescendo o i diminuendo, che segnalano un aumento o una diminuzione nell’intensità del suono. Si cerca di definire un piano per dare un ruolo agli strumenti principali come il basso, la batteria, le tastiere e la voce. Se la chitarra ha una parte predominante nel pezzo dovrà essere enfatizzata, se invece ha ruolo secondario finirà in secondo piano, più bassa o decentrata rispetto agli altri strumenti.
In seguito, ogni suono va trattato singolarmente per farlo dialogare e bilanciarlo con tutti gli altri. «È un continuo passare da una visione più dettagliata a una d’insieme, avanti e indietro, alti e bassi», dice Irko. «Il lavoro è molto tecnico e allo stesso tempo creativo. Non basta alzare il volume per rendere una canzone grossa, come viene richiesto dal mercato: spesso il risultato si ottiene distruggendo un suono con un effetto o facendo interagire suoni che singolarmente sembrano brutti».
Il rapporto tra i bassi e la parte ritmica, e a sua volta con gli altri strumenti, è molto delicato. Un leggerissimo intervento può stravolgere l’equilibrio del mix. Tra le altre cose, Irko è noto per la cura con cui tratta le frequenze basse. Sono anche una delle caratteristiche di Donda. «Profondissime e clamorose: è una delle mie firme», scherza. «Nel disco ci sono basse che si spingono sotto 35 Hz, che non tutti gli impianti audio possono riprodurre».
I limiti di frequenza percepiti dall’udito vanno dai 20 Hz, che corrispondono a un suono molto grave, fino a 20mila Hz, molto vicino alla soglia del fastidio. Tuttavia l’udito è più sensibile nell’intervallo tra i duemila e i cinquemila Hertz.
La scelta di “spingere” su certe frequenze, come quelle basse che hanno guadagnato più centralità negli ultimi anni, dipende molto dal genere musicale. «Bisogna sempre avere bene in testa l’obiettivo del pezzo», spiega Francesco Bonalume, mix engineer e fondatore del canale YouTube Reaperiani. «Nella musica elettronica, per esempio, si lavora molto sul rapporto tra le frequenze basse, l’attacco e il rilascio dei suoni, e la parte ritmica per stimolare l’istinto di ballare. Nell’elettronica più sperimentale, invece, si cerca di scaldare i suoni per non farli sembrare troppo finti».
Per modificare un suono servono gli effetti, che possono essere applicati a tutti gli strumenti, compresa la voce. Ce ne sono tantissimi: compressori, equalizzatori, distorsori, delay, riverberi, filtri, oscillatori e tutti i loro derivati che hanno nomi come LFO, fuzz, phaser e molti altri. In passato questi effetti erano tutti analogici, ingombranti e molto costosi, oggi si utilizzano simulazioni digitali in certi casi così evolute da essere quasi indistinguibili dagli effetti originali. Una delle richieste puntuali fatte da Kanye West a Irko è stata di non usare il delay, un effetto che registra un suono e lo riproduce una o più volte, con un certo ritardo temporale, dopo l’originale.
Ogni effetto, che ha decine o centinaia di possibili regolazioni, può essere usato insieme a un altro in una combinazione e una stratificazione di livelli molto complessa e potenzialmente infinita. Per esempio, nella trap e nel rap in generale è molto usato il compressore – un effetto che ha il compito di ridurre la differenza dinamica tra i suoni, adattandoli entro una certa forbice di volumi – con una tecnica chiamata “sidechain”, che coinvolge contemporaneamente due o più tracce audio. Il compressore viene innescato in questo caso da una prima traccia sorgente, quella per esempio della cassa della batteria, che a ogni colpo riduce il volume della seconda traccia coinvolta, creando un effetto ritmico energico e coinvolgente. È più facile sentirlo che spiegarlo. In questo pezzo dei Daft Punk, il sidechain è estremo: si sente quando la cassa della batteria attiva la compressione che riduce per un breve istante il suono di tutte le altre tracce, emergendo meglio.
«Fino a qualche anno fa i limiti delle frequenze erano dovuti anche alla stampa in vinile che non consente di spingere troppo sulle basse». Oggi l’orientamento prevalente dei mix engineer e le scelte degli artisti dipendono molto anche dalle mode. «Quando una novità di produzione diventa mainstream detta la linea a tutti», dice. «Chi occupa la top 10 della playlist mondiale di Spotify ha un’influenza sulla top 200: è il caso di Donda, ma anche della produzione delle canzoni di Billie Eilish, che spinge molto sui bassissimi e sugli altissimi».
Un’altra parte importante del mix è la simulazione dello spazio. Si può posizionare uno strumento al centro dell’ascolto oppure in un altro punto del panorama stereofonico: in questo modo si può percepire una chitarra come se fosse suonata in un ipotetico angolo a destra, oppure il rullante della batteria alla sinistra. Quando si registra e in seguito si mixa un concerto di musica classica l’obiettivo è inserire i suoni non in un luogo immaginario, bensì mantenere il realismo “spaziale” della registrazione. In tutti gli altri generi si può sperimentare molto di più, soprattutto nell’elettronica.
In Donda, tutte le scelte fatte in autonomia da Irko sono state confermate da West. «Ascoltando con attenzione i brani si nota una serie di movimenti dei suoni da destra a sinistra», dice. «Non sono casuali. L’inizio di Hurricane, il brano a cui hanno partecipato anche The Weeknd e Lil Baby, è completamente in mono, senza riferimenti spaziali, poi quando arriva la batteria i suoni si aprono. L’idea era di aprire la canzone come le tende di un palcoscenico all’inizio dello spettacolo».
In questo campo la tecnologia continua a progredire. Negli ultimi anni anche nella musica, come era successo nella produzione di film e videogiochi, si è iniziato a utilizzare un sistema di audio dinamico che si basa sui cosiddetti “oggetti sonori”, intesi come singole fonti di suono, e non più sui canali stereo. Si chiama Dolby Atmos e permette di far muovere ciascuno di questi suoni – un elicottero, una voce, un sintetizzatore – all’interno di uno spazio tridimensionale, a patto di avere un impianto audio in grado di riprodurlo.
Pino “Pinaxa” Pischetola, uno dei più noti mix engineer italiani, ha recentemente remixato in Dolby Atmos La voce del padrone di Franco Battiato, con cui ha collaborato dal 1998. Molti considerano questa tecnologia il futuro della musica. «Non ci sono più solo il canale destro e sinistro: il suono ti avvolge», spiega Pischetola. «Molti studi si stanno attrezzando per mixare in Dolby Atmos, ma credo che riusciremo a utilizzarlo in maniera ottimale quando anche i musicisti e i produttori costruiranno le canzoni con questa nuova impostazione, come è avvenuto quando si è passati dal mono allo standard stereo. I tempi sono sempre più veloci e non ci vorranno molti anni per adattarsi».
Al termine del lavoro di mix, il bilanciamento e tutte le scelte vanno testate su diversi dispositivi: dalle cuffie di scarsa qualità fino agli impianti audio da migliaia di euro. Tutti i suoni devono essere intelligibili, riconoscibili. I test sono necessari perché gli ingegneri del suono lavorano con casse audio di ottima qualità, mentre l’ascoltatore medio ascolta la musica in cuffia, da piccole casse bluetooth o dalle casse del computer. In questo video, Bonalume analizza i bassi di Donda, che nonostante siano molto profondi suonano distintamente in tutti i dispositivi.
Un mix di una canzone può durare poche ore o diversi giorni. Solitamente il mix finito non viene subito inviato agli artisti per un confronto: un metodo piuttosto condiviso tra mix engineer consiste nel far “riposare le orecchie” per una notte prima di riascoltare tutto, perché è molto difficile trovare subito errori in una fase intensiva di lavoro in studio. In seguito i brani vengono fatti ascoltare agli artisti e ai produttori che possono chiedere modifiche.
«In ventitré anni di carriera ho ricevuto tantissimi tipi di richieste», dice Irko. «Si va da osservazioni molto specifiche come alzare il volume di un suono fino a domande più strane: una volta mi è stato chiesto di far diventare un brano più blu. È molto importante capire e tradurre le richieste degli artisti in qualcosa di operativo».
Quando il mix è stato approvato dall’artista e dal produttore inizia il dialogo tra il mix engineer e il mastering engineer, un altro professionista che lavora sul mix finito. Il mastering è l’ultimo passaggio che serve a dare un ultimo bilanciamento ai suoni della canzone e a farla sentire meglio, più uniforme e più forte, in tutti i dispositivi. A quel punto il brano può essere stampato su disco o pubblicato sulle piattaforme di streaming.