• 18Mar



    Prendete un cd di metà anni 80, per esempio qualcosa dei Cure come ‘Kiss me Kiss me Kiss me’, poi qualcosa degli anni 90, come ‘Mellon collie and the infinite sadness’ degli Smashing Pumpkins ed infine un prodotto recente come ‘Magic’ di Bruce Springsteen, del 2008.
    Se li ascoltate uno di fila all’altro potete facilmente notare come progressivamente il volume della musica contenuta in questi 3 cd sia aumentato fino a diventare MOLTO alto.
    Questo fenomeno, chiamato dagli americani Loudness War (la guerra dei volumi) ha origini diverse e particolari implicazioni che non sono per niente positive per il mondo della musica.

    Innanzitutto le origini, che sono principalmente di tipo psicoacustico ma anche di tipo economico. Vari esperimenti di psicoacustica, la scienza che studia l’influenza del suono sulla psicologia dell’uomo e sulle sue senzazioni, hanno dimostrato che se si alza il volume della musica l’impressione immediata che si ha e che anche la qualità della musica sia innalzata.
    E’ successo così che nella corsa a vendere più copie ed a conquistare il mercato molti produttori abbiano cercato di sfruttare quest’arma sempre di più, in modo da soverchiare la concorrenza dal punto di vista del volume della musica.
    L’idea di base è quella che un ipotetico cliente in un negozio di dischi ascolti una serie di prodotti e sia portato a pensare che quello più chiassoso sia anche il migliore… interessante!
    Si è così venuta a creare una vera e propria battaglia senza esclusione di colpi alcuna per ‘suonare più alti‘ dei propri rivali, fino ai tristi livelli attuali.
    Diciamo ‘tristi’ perchè le conseguenze di questa guerra sono disastrose per la qualità della musica ed ora vi spieghiamo il perchè.
    Il volume di una traccia audio non è infinito, ma limitato da una certa soglia (0 Db) oltre la quale il segnale va in distorsione.
    L’unica maniera per aumentare il volume percepito del suono, una volta raggiunta quella soglia, è di comprimere il segnale, anzi limitarlo con ‘brickwall‘, letteralmente un muro di mattoni . In questo modo si riducono i picchi di dinamica, che quasi sempre corrispondono con i colpi di cassa e rullante, innalzando tutto ciò che sta tra di loro.
    L’effetto di questa operazione sull’audio è sempre stato utilizzato dai fonici e produttori per dare più compattezza ed uniformità al missaggio, tanto che in alcune consoles analogiche della SSL esiste un compressore da attivare direttamente sul mix bus, che veniva chiamato ‘the record button‘ (il tasto che fa il disco, praticamente). Quindi questa tecnica è stata utilizzata per anni senza mai abusarne ed in modo bilanciato, purtroppo oggi le cose sono cambiate ed è impensabile produrre un disco e metterlo sul mercato se non ha subito un trattamento pesantissimo di riduzione di dinamica.
    Il problema è che la prima vittima di questo trattamento iperagressivo è la musica, perchè ridurre drasticamente la dinamica del suono significa ridurre drasticamente il linguaggio della musica, uniformandola e semplificandola. A volte, in certi generi musicali estremi, questo è un obiettivo da ricercare, stiamo pensando a certa musica Techno o ad un certo tipo di canzone pop usa e getta che non ha ambizioni di durare più di una stagione.
    Ma se l’obiettivo dell’artista e del produttore è quello di creare qualcosa che duri nel tempo ed ambisca a diventare un ‘classico‘, qualcosa che la gente ascolterà a distanza di anni nel futuro, allora questo approccio è disastroso perchè semplificandone le sfumature e rendendola un unico blocco di suono una canzone stanca subito. Dopo pochi ascolti crea già un effetto di noia perchè le nostre orecchie, la nostra mente, hanno bisogno di sfumature e dettagli per restare interessati.
    Questo non vuole essere il solito discorso nostalgico del ‘si stava meglio una volta‘, ma una precisa presa di posizione che ha già molti proseliti tra chi ama veramente la musica.
    Per chi fosse interessato ad approfondire con un esempio, c’è un bel video postato su youtube con l’interessante esempio di come una canzone di Paul McCartney degli anni ’80 suonerebbe se fosse sottoposta ad un trattamento moderno. A voi giudicare.

  • 11Mar

    La normalizzazione è un concetto che risale all’alba dell’audio digitale e che purtroppo si è trascinato in maniera equivoca fino alle più recenti workstations.
    I primi campionatori che funzionavano a 12 bits, qui stiamo parlando della preistoria, infatti miglioravano in maniera importante la resa dell’audio proprio grazie alla normalizzazione, un processo che ricalcolava e innalzava i picchi di volume del suono in modo da ottimizzarli.
    Questa procedura era necessaria a causa della terribile qualità dei primi convertitori analogico/digitale e digitale/analogico, che andavano in distorsione con molta facilità e che avevano un range di dinamica limitatissimo: in pratica normalizzare era spesso una necessità imprescindibile.
    Stiamo parlando di più di 30 anni fa, e la tecnologia dei convertitori, delle workstations e dei software non ha nulla più a che vedere con quanto appena descritto.
    Oggi si converte sempre come minino a 24 bits di risoluzione, con una dinamica virtualmente illimitata, e con buona qualità anche a prezzi bassi, eppure capita spesso di vedere applicata la normalizzazione su intere sessioni nella convinzione di prepararle così meglio per la successiva fase di missaggio o semplicemente perchè si è convinti che una traccia normalizzata suoni meglio.

    Invece questa è quasi sempre una ricetta per ridurre la qualità dell’audio e vediamo perchè.
    Prima di tutto ogni volta che si ricalcola una forma d’onda in digitale vengono introdotti errori, si creano degli artifizi inudibili nella singola traccia, che però moltiplicati per 20/30 volte, ricorsivamente possono anche risultare in distorsione udibile.
    In parole povere l’audio digitale degrada ogni volta che viene processato, ovviamente non alla stessa velocità dell’audio analogico, ma in qualche modo degrada lo stesso a causa degli intrinseci errori di calcolo che tali complicatissime operazioni matematiche introducono.
    In secondo luogo si riduce la potenzialità (headroom) di calcolo del mixbus in maniera importante, e da questo punto di vista la distorsione diventa udibile molto in fretta.
    In terzo luogo una buona parde del lavoro fatto in registrazione rischia di andare perso.
    Mi spiego meglio, poniamo che abbiate registrato una batteria con 3 microfoni, due panoramici ed un microfono sulla cassa; ovviamente il suono che avete cercato di registrare si basa sulle relazioni precise tra i volumi di registrazione dei 3 microfoni. Ecco che andando a normalizzare perdete in maniera irrimediabile i rapporti tra microfoni che avete faticosamente costruito.
    Per questi motivi normalizzare selvaggiamente è quasi sempre una cattiva idea. Nessuno sta dicendo che non si debba mai fare, semplicemente non consigliamo di includerlo come abitudine nella propria routine di lavoro.

  • 09Mar

    L’effettistica è una componente fondamentale dello studio di registrazione, ed è oramai sempre più raro ascoltare tracce audio che non siano in qualche modo processate dopo la registrazione, forse le uniche eccezioni possono essere le registrazioni di musica classica o quelle di determinati settori particolarmente puristi del jazz. Si potrebbe arrivare a dire che molti dei suoni che si ascoltano oggigiorno per radio sono il risultato in egual misura della registrazione e della applicazione di effetti audio.
    Con questo approccio stiamo intendendo una definizione di effettistica allargata al massimo, che impropriamente comprende qualsiasi alterazione del segnale originale, come modifiche della dinamica tramite compressori o limiters ed editing applicato ricorsivamente, oltre ai classici effetti da tutti conosciuti.
    Cominciando con una tale ampia definizione è ovvio che l’argomento non possa essere esaurito con poche parole, perciò cercheremo con la nostra serie di articoli di affrontare alcuni aspetti importanti per chiunque voglia approcciare la materia.
    Partendo dalla classificazione più generale possibile esistono due tipi di effetti, i cosiddetti effetti Inline ed i Bus Effects.
    Attenzione che questa divisione non riguarda ciò che l’effetto compie, cioè come processa il segnale, ma la sua posizione sul banco di missaggio (o sulla console virtuale dei computers).
    Gli effetti Inline sono quelli inseriti direttamente nella traccia audio, mentre i Bus Effects sono inseriti su di una traccia ausiliaria (che significa ‘di aiuto’), cioè un canale parallelo che di per se non ha nessun segnale audio assegnato. A questo punto è meglio chiarire meglio cosa sia una traccia ausiliaria (indicata con Aux nelle etichette e nei manuali dei mixers): si tratta di quelle tracce di per se mute verso le quali viene convogliato il segnale di altre tracce audio ‘normali’, tramite i cosiddetti Bus.
    Confusi? E’ normale state tranquilli.

    Praticamente le tracce ausiliarie possono essere considerate identiche a tutte le altre tracce audio, ed in effetti in moltissime consoles lo sono, con l’unica differenza che non hanno nessun suono asseganto in origine.
    Ma allora se sono mute a cosa servono? Domanderete voi.
    Servono per duplicare le tracce audio ‘normali’ in sostanza.
    Il meccanismo di duplicazione avviene grazie a dei percorsi assegnabili chiamati Bus oppure Mandate.
    Le mandate sono presenti in tutte le tracce ordinarie (non in quelle ausiliarie di solito) e permettono letteralmente di spedirne un duplicato verso le tracce ausiliarie.
    Così, grazie ad esse avremo a disposizione un duplicato del segnale audio di una traccia, pronto ad essere processato dal nostro effetto, ma che lascerà assolutamente immutata la traccia originale.
    Questo semplice meccanismo fa parte del cosiddetto ‘routing‘, cioè instradamento del segnale, ed apre la porta a tutta una serie di tecniche di missaggio e di utilizzo degli effetti di cui parleremo diffusamente nei prossimi articoli.

  • 27Feb

    Il riverbero è probabilmente l’effetto più importante che si può applicare al suono in studio di registrazione e la sua qualità può enormemente influenzare il risultato finale di un missaggio.
    Per quanto riguarda la sua scelta, al momento attuale esiste ancora una forte propensione verso le macchine analogiche (Lexicon etc) od in generale l’outboard perchè sono molto pochi i plugins che con esse possono competere.
    In special modo i plugins a convoluzione come l’Altiverb, il SIR o l’IR1 sembrano garantire, grazie agli impulsi di segnale che possono caricare, una resa sonora più credibile, ma che in qualche modo non è ancora all’altezza del migliore outboard.

    Per citare un esempio recente di utilizzo di un processore analogico: se ascoltate Strawberry Swing dal disco Viva la Vida dei Coldplay l’inizio della canzone è letteralmente dominato dal suono del riverbero. Si tratta sicuramente di qualche outboard analogico, visto che chi vi scrive non ha mai sentito suonare un plugin in quel modo.
    Bisognerebbe domandare a Brian Eno quale macchina è stata usata.

    Comunque, differenze analogico/digitale a parte, l’importanza di questo effetto rimane.
    Lo scopo principale di questo processore è di simulare uno spazio, cioè i rimbalzi del suono in un ambiente chiuso, che rinforzano il suono stesso e vi conferiscono maggiore profondità.
    Considerato che il suono viaggia a poco più di 300 metri al secondo, per simulare una risposta ottenuta da un muro lontano 150 metri dovremo fare in modo che l’effetto sia innescato esattamente dopo un secondo.
    Proprio a questo servono i parametri che permettono la regolazione e l’ottimizzazione dell’effetto, dei quali uno dei più importanti è il pre-delay, cioè il ritardo con cui il suono riverberato viene innescato rispetto alla fonte.
    L’orecchio umano tende a considerare uniti due suoni che sono separati da meno di 50 millisecondi, quindi qualsiasi valore di pre-delay inferiore a 50 causerà una percezione del riverbero come congiunto al suono originale.
    Viceversa oltre la soglia dei 50 millisecondi di ritardo l’orecchio umano lo precepirà come separato.
    Per continuare col nostro esempio, settando il pre-delay a 1000 ms (un secondo) otterremo una simulazione del riflesso del suono su di un muro distante 150 metri, visto che  il suono impiega mezzo secondo per arrivare al muro ed un altro mezzo per tornare indietro.

    Ma le cose in pratica non sono mai così semplici, e non abbiamo quasi mai a che fare con un singolo muro, ma con una serie di superfici diverse che riflettono il suono in modo irregolare, anche perchè, a complicare ulteriormente le cose, interviene il materiale della superfice riflettente che a sua volta influenza in maniera decisiva il suono.
    Per descrivere ciò che succede al suono in un’ambiente chiuso sono necessarie complicate equazioni matematiche, per le quali ovviamente non abbiamo nessun interesse, ma che rendono l’idea di come la materia non sia affatto semplice e di come sia molto difficile creare simulazioni credibili di un ambiente.
    Presto riparleremo più nel dettaglio di come e quando utilizzare il riverbero per simulare un senso di spazialità nel missaggio.

  • 24Feb

    Esistono situazioni in cui, durante il missaggio di un pezzo, ci si rende conto che il suono della gran cassa della batteria ripreso al naturale manchi di quel ‘thump‘ delle frequenze basse necessario. Se dopo avere provato a risolvere il problema con l’equalizzatore aggiungendo frequenze dai 60 ai 100Hz ancora il risultato non è soddisfacente, allora esiste una tecnica, usata da moltissimi ingegneri del suono negli ultimi decenni, che potrebbe fare al caso vostro.

    Si tratta di usare un generatore di sinusoidi (frequenze pure), che al giorno d’oggi è presente in praticamente tutte le workstations digitali: per esempio in Pro Tools esiste un plugin chiamato Signal Generator che va benissimo per questo scopo, ma ce ne sono diverse versioni anche in formato VST e AU.
    Anche se questa tecnica era nata in ambito analogico funziona benissimo anche in digitale.
    Per comodità la descriveremo all’interno di Pro Tools, ma può essere benissimo riportata in qualsiasi altro software.
    Comunque si tratta di utilizzare il signal generator in combinazione con un noise gate, in modo che quest’ultimo si apra solamente quando ‘percepisce’ un colpo di cassa.
    Spiegando più dettagliatamente, è necessario creare una nuova traccia audio, inserirvi un signal generator e regolarlo sulla frequenza bassa desiderata, per esempio 60Hz.
    In cascata subito dopo il signal generator inserite il noise gate, avendo l’accortezza di selezionare una chiave esterna di input: in pratica il gate verrà aperto e chiuso da un Bus e non dal normale canale audio.
    A questo punto create una mandata Bus dalla traccia audio originaria dove è presente il suono della grancassa ed il gioco è fatto. Naturalmente il numero di Bus di quest’ultima dovrà corrispondere con quello che fa da chiave esterna al noise gate.
    In questo modo otterrete un segnale aggiuntivo che viene ‘sbloccato‘ ogni volta che il noise gate si apre: prestate particolare attenzione all’attacco ed al rilascio del gate, perchè esso agirà come inviluppo per modificare la lunghezza della nota bassa aggiunta.

   Next Entries »