Digital Media - Audio - Università degli studi di Pavia

DIGITAL MEDIA
PhD. Ing. Massimiliano Pini
Area Sistemi Informativi - Università degli Studi di Pavia
[email protected]
http://www.unipv.it/digitalmediacim/
SUONO
Il suono è la sensazione data dalla vibrazione di un corpo in oscillazione. Tale vibrazione, che si
propaga nell'aria o in un altro mezzo elastico, raggiunge l'apparato uditivo dell'orecchio che, tramite
un complesso meccanismo interno, è responsabile della creazione di una sensazione "uditiva"
direttamente correlata alla natura della vibrazione, in particolar modo è la membrana timpanica
che subendo delle variazioni di pressione entra in vibrazione.
SUONO
Le oscillazioni sono spostamenti delle particelle, intorno alla posizione di riposo e lungo la
direzione di propagazione dell'onda, provocati da movimenti vibratori, provenienti da un
determinato oggetto, chiamato sorgente del suono, il quale trasmette il proprio movimento alle
particelle adiacenti, grazie alle proprietà meccaniche del mezzo; le particelle a loro volta, iniziando
ad oscillare, trasmettono il movimento alle altre particelle vicine e queste a loro volta ad altre
ancora, provocando una variazione locale della pressione; in questo modo, un semplice movimento
vibratorio si propaga meccanicamente originando un'onda sonora (o onda acustica), che è un onda
longitudinale.
Si ha un'onda longitudinale quando le particelle del mezzo in cui si propaga l'onda, oscillano lungo
la direzione di propagazione.
Le onde meccaniche longitudinali sono anche denominate onde di pressione.
Il suono è un'onda che gode delle seguenti proprietà: riflessione, rifrazione e diffrazione
SUONO
La riflessione è il fenomeno per cui un'onda, che si propaga lungo
l'interfaccia tra differenti mezzi, cambia di direzione a causa di un
impatto con un materiale riflettente. In acustica la riflessione causa gli
echi ed è utilizzata ad esempio nel sonar.
Riflessione
La rifrazione è la deviazione subita da un'onda che ha luogo quando
questa passa da un mezzo ad un altro nel quale la sua velocità di
propagazione cambia.
La diffrazione è un fenomeno associato alla deviazione della traiettoria
di propagazione delle onde quando queste incontrano un ostacolo sul
loro cammino.
Rifrazione
Diffrazione
SUONO
Come tutte le onde, anche quelle sonore sono caratterizzate da una frequenza (che nel caso del suono è in
diretta relazione con la percezione dell'altezza) e un'intensità (che è in diretta relazione con il cosiddetto
"volume" del suono). Inoltre, caratteristica saliente delle onde sonore è la forma d'onda stessa, che rende in
gran parte ragione delle differenze cosiddette di timbro che si percepiscono tra diverse tipologie di suono.
Come tutti i fenomeni acustici, il suono è una perturbazione di carattere oscillatorio che si propaga con una
data frequenza in un mezzo elastico. Il numero di oscillazioni (variazioni di pressione) al secondo viene
chiamato frequenza del suono e viene misurato in cicli al secondo ossia in Hertz (Hz). Il campo uditivo
dell'uomo si estende da circa 20 Hz fino a 20.000 Hz (ossia 20 kHz).
SUONO
L'altezza è la qualità che fa distinguere un suono acuto da uno grave. Dipende in massima parte
dalla frequenza. L'orecchio umano percepisce solo i suoni che vanno da 20 a 20.000 oscillazioni al
secondo. Al di sotto abbiamo gli infrasuoni, al di sopra gli ultrasuoni. La pratica musicale copre una gamma di suoni, le cui fondamentali vanno dal do grave che ha una
frequenza di 32Hz al do acuto che ha una frequenza di 4100Hz. Per calcolare l'altezza dei suoni, è stato scelto come punto di riferimento il La4 (= ottava centrale
del pianoforte) che chiamiamo diapason o corista.
La frequenza del diapason, che fino al XIX secolo variava di Paese in Paese e anche a seconda del
tipo di musica da eseguire (sacra, da camera etc.).
La Conferenza di Londra del 1939, stabilisce la frequenza del diapason a 440 Hz.
SUONO
Il volume è la qualità sonora associata alla percezione della forza di un suono, ed è determinato
dalla pressione che l'onda sonora esercita sul timpano: quest'ultima è a sua volta determinata
dall'ampiezza della vibrazione e dalla distanza del punto di percezione da quello di emissione del
suono.
Per misurare il volume percepito di un suono si fa spesso riferimento al livello sonoro, che viene
calcolato in decibel (dB) come segue: LP=20xLog10(p/p0)
nella formula, p indica la pressione quadratica media, mentre p0 è una pressione sonora di
riferimento (soglia del silenzio o udibile). È la più piccola variazione di pressione che l'orecchio
umano è in grado di percepire comunemente posta 20 µPa ossia (2x10−5 N/m²)
SUONO
dB
Sorgente
20
Respiro umano a 20 cm
30
Sussurri a 1 m
40
Quartiere abitato, di notte
50
Ambiente domestico
60
Ufficio rumoroso, radio, conversazione
70
Aspirapolvere a 1 m
80
Camion pesante a 1 m
90
Urlo
100
Discoteca, concerto rock vicino al palco
110
Motosega a 1 m
120
Sirena
125
Aereo al decollo a 50 m
130
Soglia del dolore
140
Colpo di pistola a 1 m
SUONO
Il timbro, è la qualità che, a parità di frequenza, distingue un suono
da un altro. Il timbro dipende dalla forma dell'onda sonora,
determinata dalla sovrapposizione delle onde sinusoidali
caratterizzate dai suoni fondamentali e dai loro armonici. Dal
punto di vista della produzione del suono, il timbro è determinato
dalla natura (forma e composizione) della sorgente del suono e
dalla maniera in cui questa viene posta in oscillazione.
La scomposizione di un suono nelle proprie componenti
sinusoidali fondamentali è detta analisi in frequenza. Le frequenze
vengono misurate in Hz, ovvero oscillazioni al secondo. Le
armoniche di un suono sono suoni con frequenze che sono
multipli interi del suono principale.
Nella musica, tanto più un suono è composto da diverse
componenti, tanto più esso risulta complesso: si va dal suono di un
flauto dolce, composto dalla fondamentale e da pochissime
armoniche, al suono degli strumenti ad arco, composto da
moltissime frequenze armoniche secondarie.
TRASFORMATA DI FOURIER
Un suono semplice può essere generato da una
corda che vibra ad una frequenza f nel tempo.
Se rappresentiamo questo suono nel dominio del
tempo l’onda generata avrà la forma di una
sinusoide.
Sin[t]
Sommando più sinusoidi possiamo rappresentare
qualsiasi suono.
Sin[t]+0,5 * Sin[2t]
TRASFORMATA DI FOURIER
Consideriamo il suono
Sin[t]
Una rappresentazione alternativa del suono è quella di
considerare non il tempo ma la frequenza.
In questo caso Sin[t] è un suono con frequenza 1 per cui se
rappresentiamo su una coppia di assi cartesiani la frequenza
e l’ampiezza del suono avremo un’impulso di ampiezza pari
all’ampiezza del suono e posizione 1
L’operatore matematico per il passaggio dal dominio del
tempo al dominio delle frequenze è chiamato trasformata
di Fourier, il passaggio dal dominio delle frequenze a quello
del tempo avviene invece tramite la trasformata di Fourier
inversa o anti-trasformata di Fourier
TRASFORMATA DI FOURIER
Nel caso del suono complesso
Sin[t]+0,5 * Sin[2t] La trasformata di Fourier presenterà due impulsi, uno di
ampiezza 1 in posizione 1 e uno di ampiezza 0.5 in
posizione 2
TRASFORMATA DI FOURIER
La trasformata di Fourier permette di effettuare operazioni su un suono passando dall’ambito del
tempo a quello delle frequenze e viceversa tramite operazioni matematiche.
Ad esempio passando da una rappresentazione nel tempo ad una nelle frequenze è possibile fare
operazione di filtraggio del suono, come ad esempio eliminare i suoni con una frequenza superiori di
una data soglia (filtro passa-basso) come illustrato nell’esempio seguente.
REGISTRAZIONE SONORA
La registrazione sonora è un processo elettrico o meccanico che consente di riprodurre onde sonore,
come ad esempio la voce umana, il canto, la musica strumentale o effetti sonori in genere.
Le due classi principali di tecnologia della registrazione del suono sono la registrazione analogica e la
registrazione digitale.
La registrazione acustica analogica è realizzata con un microfono a diaframma in grado di rilevare le
variazioni della pressione atmosferica (onde sonore acustiche) e registrarle come una rappresentazione
grafica delle onde sonore su un supporto come un fonografo (in cui una puntina disegna un solco in un
disco).
Nella registrazione su nastro magnetico, le onde sonore fanno vibrare il diaframma del microfono e si
trasformano in una variazione di corrente elettrica, che viene poi convertita in un campo magnetico variabile
da un elettromagnete, che realizza una rappresentazione del suono sotto forma di aree magnetizzate su un
nastro di plastica sul quale è stato steso un rivestimento magnetico.
La riproduzione del suono analogico è il processo inverso; essa avviene tramite un altoparlante munito di un
diaframma, che provocando cambiamenti della pressione atmosferica, forma delle onde sonore.
REGISTRAZIONE SONORA
Il microfono è un trasduttore di tipo elettro-meccanico in
grado di convertire le onde di pressione sonora in segnali
elettrici.
Esistono diversi tipi di microfono che basano il proprio
funzionamento su differenti tecnologie e metodi di
conversione.
I microfoni vengono classificati principalmente secondo la
tipologia di funzionamento (in pratica il tipo di trasduttore) e la
figura polare (ovvero la diversa sensibilità del trasduttore in
relazione alla direzione di provenienza del suono).
Altre caratteristiche tecniche sono la banda passante / risposta
in frequenza, dinamica e sensibilità, l'impedenza, la necessità o
meno di alimentazione.
REGISTRAZIONE SONORA
omnidirezionale
cardioide
bi-direzionale
direzionale
supercardioide
REGISTRAZIONE SONORA
L'altoparlante è un attuatore che converte un
segnale elettrico in onde sonore.
Si può quindi definire un trasduttore elettroacustico.
Il suono in sostanza è generato da una serie di
compressioni e rarefazioni dell'aria, compito
dell'altoparlante è generare tali compressioni e
rarefazioni nell'ambiente d'ascolto pilotato da un
segnale elettrico che rappresenta l’onda sonora da
riprodurre.
REGISTRAZIONE SONORA
La registrazione e riproduzione digitale converte il segnale analogico del suono, captato dal microfono, in
una forma digitale attraverso un processo di digitalizzazione o campionamento, permettendo così di essere
conservato e trasmesso attraverso una più ampia varietà di supporti.
L'audio digitale viene registrato come una serie di numeri binari che rappresentano campioni dell'ampiezza
del segnale audio a intervalli di tempo uguali, in un frequenza di campionamento abbastanza alta da poter
trasmettere tutti i suoni in grado di essere ascoltati.
Le registrazioni digitali sono considerate di qualità superiore rispetto alle registrazioni analogiche non
necessariamente perché hanno maggior fedeltà (più ampia risposta in frequenza o gamma dinamica), ma
perché il formato digitale può prevenire la perdita di gran parte della qualità che si registra nella
registrazione analogica a causa del rumore, di interferenza elettromagnetica di riproduzione, e per il
deterioramento meccanico o danni al supporto di memorizzazione.
Per la riproduzione, il segnale audio digitale deve essere riconvertito in forma analogica prima di essere
inviato ad un altoparlante o a delle cuffie.
CAMPIONAMENTO
La trasformazione del segnale da analogico (continuo) a digitale (discreto) prende il nome di
campionamento.
Tale termine deriva dal fatto che preleviamo dei campioni del segnale originario (la sua ampiezza),
compiendo questa operazione a intervalli di tempo regolari.
Il ritmo costante viene identificato con una frequenza detta frequenza di campionamento.
La frequenza di campionamento, quindi, descrive il numero di volte che un segnale audio in ingresso è
misurato o "campionato" in un dato periodo di tempo ed è misurata in kHz.
CAMPIONAMENTO
In altre parole la frequenza di campionamento è il parametro che si utilizza quando si "traduce" un
fenomeno naturale - comprensibile per l'essere umano - in una rappresentazione numerica "comprensibile" cioè utilizzabile per un computer e per quelle macchine il cui funzionamento è basato sul bit.
Ogni singola misurazione del segnale corrisponde ad un numero memorizzato, e viene detta campione; nella
produzione dei campioni avvengono generalmente innumerevoli errori di campionamento, ascrivibili
soprattutto alla stessa forma digitale con cui sono memorizzati, che per forza di cose deve essere
rappresentata su un numero di cifre finito.
Se nella teoria è sufficiente, nota la larghezza di banda del segnale, applicare il teorema del campionamento
di Nyquist-Shannon per ottenere la frequenza ideale, tale da consentire la completa ricostruzione del
segnale a partire dai suoi campioni, nella pratica la ricostruzione perfetta risulta spesso impossibile, ed anzi si
introducono volontariamente degli errori di precisione per ridurre il numero di cifre necessarie,
procedimento che prende il nome di quantizzazione.
Nella maggior parte delle applicazioni ciò non costituisce un problema, perché una rappresentazione
approssimata è più che sufficiente a consentire un'interpretazione corretta del segnale (ad esempio nel caso
di segnali sonori, grafici o multimediali).
TEOREMA DI
NYQUIST-SHANNON
Il campionamento è il primo passo del processo di conversione analogico-digitale di un segnale.
Consiste nel prelievo di campioni (samples) da un segnale analogico e continuo nel tempo ogni Ỏt
secondi. Il valore Ỏt è detto intervallo di campionamento, mentre fs = 1/Ỏt è la frequenza di
campionamento. Il risultato è un segnale analogico in tempo discreto, che viene in seguito quantizzato,
codificato e reso accessibile a qualsiasi elaboratore digitale.
Il teorema del campionamento pone un vincolo per la progettazione di apparati di conversione
analogico-digitale: se si ha a disposizione un campionatore che lavora a frequenza fs, è necessario
mandargli in ingresso un segnale a banda limitata da fs/2
Un segnale analogico s(t), la cui banda di frequenze sia limitata dalla frequenza fM, può essere
univocamente ricostruito a partire dai suoi campioni
s(nỎt)\ (n∈Z) presi a frequenza fs=1/Ỏt se fs > 2fM.
In generale, tuttavia, un segnale analogico non è limitato in frequenza, ma deve essere filtrato per
eliminare le componenti di frequenza maggiore di fs/2: a tale scopo si usa un filtro anti-alias.
CONVERSIONE
ANALOGICA-DIGITALE
01011010
11011010
1001100
filtro anti alias
campionamento
quantizzazione
CONVERSIONE
ANALOGICA-DIGITALE
Nella conversione analogico-digitale, la
differenza tra il segnale analogico reale e il
valore digitale quantizzato dello stesso viene
chiamata errore di quantizzazione o
distorsione di quantizzazione.
Questo errore è dovuto all'arrotondamento o
al troncamento del segnale digitalizzato.
Il segnale errore è talvolta considerato come un
segnale casuale aggiuntivo chiamato rumore di
quantizzazione a causa del suo comportamento
stocastico.
CONVERSIONE
ANALOGICA-DIGITALE
Frequenza campionamento
Bit di quantizzazione
Contesto di utilizzo
44,1 KHz
16
CD, Minidisc
48 KHz
16
DAT
96 KHz
24
Sistemi di Hard Disk Recording da Studio
192 KHz
24
Registrazioni digitali sperimentali HD
COMPRESSIONE DATI
In informatica e telecomunicazioni con il termine compressione dati si indica la tecnica di elaborazione
dati che, attuata a mezzo di opportuni algoritmi, permette la riduzione della quantità di bit necessari alla
rappresentazione in forma digitale di un'informazione.
La compressione dati viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio
necessario per la sua memorizzazione, sia per ridurre l'occupazione di banda necessaria in una generica
trasmissione dati digitale. L'importanza della compressione dati sta nel fatto che in sua assenza non
sarebbe possibile usufruire di tutta una vasta collezione di contenuti informativi attraverso la rete
Internet per limitatezza della banda disponibile dei mezzi trasmissivi.
Le tecniche di compressione dati si dividono in due grandi categorie:
Compressione dati lossy: comprime i dati attraverso un processo con perdita d'informazione.
Compressione dati lossless: comprime i dati attraverso un processo senza perdita d'informazione.
COMPRESSIONE DATI
La compressione dati con perdita, anche chiamata compressione dati lossy, è una classe di algoritmi di compressione
dati che porta alla perdita di parte dell'informazione originale durante la fase di compressione/decompressione dei dati
che la rappresentano.
Decomprimendo un file compresso con un metodo "lossy" la copia ottenuta sarà peggiore dell'originale per livello di
precisione delle informazioni che codifica, ma in genere comunque abbastanza simile da non comportare perdita di
informazioni irrinunciabili. Ciò è possibile poiché i metodi di compressione a perdita di informazioni in genere tendono
a scartare le informazioni poco rilevanti, archiviando solo quelle essenziali: per esempio comprimendo un brano audio
secondo la codifica dell'MP3 non vengono memorizzati i suoni non udibili, consentendo di ridurre le dimensioni dei file
senza compromettere in modo sostanziale la qualità dell'informazione.
La compressione dei dati con perdita di qualità è ampiamente usata in molti settori dell'informatica: su Internet,
nell'ambito dello streaming dei media, nella telefonia, per la compressione di immagini o altri oggetti multimediali, ecc.
Una volta compresso un file con un metodo lossy, le informazioni perse non saranno più recuperabili. Una sua apertura
e una sua ricompressione con metodi lossless o con un metodo lossy con una compressione minore non
permetteranno di tornare alla quantità di informazioni iniziali ma anzi, l'ulteriore compressione lossy potrebbe far
perdere ulteriori informazioni, ma ingrandendo le dimensioni del file.
COMPRESSIONE DATI
Alcuni codec di compressione lossy per l’audio sono:
AAC (Advanced Audio Coding) è un formato di compressione audio creato dal consorzio MPEG e incluso ufficialmente negli
standard MPEG-4 ed MPEG-2. L'AAC fornisce una qualità audio superiore al formato MP3 a parità di fattore di compressione.
Attualmente viene utilizzato principalmente da Apple nei suoi prodotti dedicati all'audio (iTunes); Apple usa sia una variante
dell'AAC che gestisce i diritti d'autore DRM (AAC Protected), con compressione a 128 kb/s, sia una versione senza protezione
(AAC Plus), con compressione a 256 kb/s.
MP3 (per esteso Moving Picture Expert Group-1/2 Audio Layer 3, noto anche come MPEG-1 Audio Layer III o MPEG-2 Audio Layer
III) è un algoritmo di compressione audio di tipo lossy, sviluppato dal gruppo MPEG, in grado di ridurre drasticamente la quantità di
dati richiesti per memorizzare un suono, rimanendo comunque una riproduzione accettabilmente fedele del file originale non
compresso. La qualità di un file MP3 dipende dalla qualità della codifica e dalla difficoltà con la quale il segnale deve essere codificato.
Buoni codificatori hanno una qualità accettabile da 128 a 160 kbit/s, la chiarezza perfetta di un brano si ottiene da 160 a 192 kbit/s.
Ogg Vorbis è un algoritmo open source e software libero per la compressione audio digitale di tipo lossy, che si pone come
alternativa di altri standard come MP3, AAC. A parità di qualità percepita, permette una maggiore compressione rispetto al formato
MP3, ottenuta mediante avanzate tecniche di psicoacustica. Le caratteristiche distintive del formato Vorbis rispetto allo standard MP3
sono una maggior estensione e pulizia delle alte frequenze (sopra i 16 kHz), il supporto multicanale a livello nativo. Nel trattamento
di segnale stereo musicale Vorbis ha il suo bit rate ideale intorno ai 128 kbit/s, risultando estremamente difficoltoso da distinguere
rispetto all'originale in un ascolto cieco già da 192 kbit/s.
COMPRESSIONE DATI
WMA (Windows Media Audio) è una tecnologia di compressione dei dati audio lossy sviluppata da Microsoft. Microsoft afferma che
WMA può produrre file di dimensione dimezzata rispetto a un file MP3 di qualità equivalente, inoltre ha affermato che un WMA a
"64 kbit/s" corrisponde alla qualità "CD audio". L'affermazione, tuttavia, è stata respinta da alcuni audiofili.
AC-3 è un sistema di codifica cosiddetto "lossy". sviluppato dai Dolby Laboratories. Il sistema prende in input segnali audio digitali
codificati a 48 kHz di frequenza di campionamento e 16 bit di risoluzione, li trasforma analizzandoli nel dominio della frequenza, per
poi scartare parte dei dati utilizzando metodi di analisi di tipo "psicoacustico". Un segnale audio mono digitale lineare (quindi non
compresso) a 48 kHz/16 bit, richiede 768 kbps per essere codificato, pertanto un segnale stereo di questo tipo necessiterebbe di 1
536 kbps, e un segnale a 5 canali di 3 840 kbps. L'AC3 permette di ridurre questi valori anche di un fattore superiore a 10,
richiedendo circa 400 kbps per codificare audio 5.1, e meno di 200 kbps per codificare audio stereo.
COMPRESSIONE DATI
La compressione dati senza perdita (o compressione dati lossless), è una classe di algoritmi di compressione
dati che non porta alla perdita di alcuna parte dell'informazione originale durante la fase di compressione/
decompressione dei dati stessi.
Gli algoritmi di compressione lossless non possono sempre garantire che ogni insieme di dati in input
diminuisca di dimensione. In altre parole per ogni algoritmo lossless ci saranno particolari dati in input che
non diminuiranno di dimensione quando elaborati dall'algoritmo.
Alcuni codec di compressione lossless per l’audio sono:
ALAC (Apple Lossless Audio Codec) è un codec audio sviluppato da Apple Inc. allo scopo di ottenere una
compressione lossless. L'utilizzo di questo codec dimezza lo spazio occupato rispetto ad un file audio non
compresso.
FLAC (Free Lossless Audio Codec) è un diffuso codec audio libero (open source) pensato specificatamente
per dati audio. Riesce ad ottenere un fattore di compressione dell'ordine del 30-50%
PSICOACUSTICA
La psicoacustica è lo studio della percezione soggettiva umana dei suoni. Più precisamente è lo studio della
psicologia della percezione acustica.
In molte applicazioni dell'acustica e dell'elaborazione del segnale sonoro diventa strettamente necessario
conoscere come il suono viene percepito da un essere umano.
Ciò che "si sente" non è solamente una conseguenza di carattere fisiologico legata alla conformazione del
nostro orecchio, ma comporta anche implicazioni psicologiche.
L'udito umano è simile ad un analizzatore di spettro, così che l'orecchio risolve il contenuto spettrale della
pressione dell'onda di pressione.
Il modello psicoacustico conferisce qualità alla compressione audio di tipo "lossy" (con perdita di
informazione) indicando quale parte del segnale audio da comprimere può essere rimossa o pesantemente
compressa senza generare problemi, cioè senza perdite significative nella qualità del suono.
!
PSICOACUSTICA
La psicoacustica è fortemente basata sull'anatomia umana, soprattutto sulle limitazioni di percezione
dell'orecchio. Dette limitazioni sono:
• Limiti alle alte frequenze
• Soglia assoluta di udibilità
• Soglia del dolore
• Temporal masking (Mascheramento temporale)
• Simultaneous masking (Mascheramento simultaneo)
Dato che l'orecchio non funziona al meglio quando si trova in prossimità di queste limitazioni, un algoritmo
di compressione audio darà bassa priorità a frequenze esterne al range di udibilità. Sottraendo memoria a
queste frequenze poco importanti e ridistribuendoli fra quelle utili l'algoritmo assicura che i suoni udibili
siano della qualità più alta possibile.
PSICOACUSTICA
Effetti di mascheramento. In alcune situazioni, un suono normalmente udibile può essere mascherato da un
altro suono. Ad esempio, la conversazione a una fermata di autobus può diventare completamente
impossibile se si sta avvicinando un rumoroso autobus. Questo fenomeno è chiamato "mascheramento". Un
suono più debole è detto "mascherato" se è reso inaudibile dalla presenza di un suono più forte.
Se due suoni vengono prodotti simultaneamente e uno è mascherato dall'altro, si parla di mascheramento
simultaneo. Un suono di frequenza prossima a quella del suono più forte è mascherato più facilmente
rispetto a uno di frequenza molto diversa. Per questo motivo, il mascheramento simultaneo è anche
chiamato "mascheramento di frequenza".
Allo stesso modo, un suono leggero emesso appena dopo la fine del suono alto è mascherato da
quest'ultimo. Persino un suono leggero appena prima di un suono alto può essere mascherato da un suono
alto. Questi due effetti sono chiamati rispettivamente anticipo e ritardo del temporal-masking
(mascheramento temporale).
SUONO MULTICANALE
La monofonia è una tecnica di riproduzione/registrazione del suono che prevede un
unico flusso sonoro destinato ad essere riprodotto da un unico diffusore acustico
posizionato frontalmente all'ascoltatore.
La monofonia è stata la prima tecnica di riproduzione/registrazione del suono
implementata, la più semplice, ma anche quella che offre le prestazioni minori. In natura
infatti il suono può avere origine da molteplici punti spaziali, quindi più flussi sonori sono
implementati per dare origine a fonti sonore riprodotte da diffusori acustici posizionati in
differenti punti spaziali, maggiore è il livello di realismo ottenibile.
Suono monofonico
La stereofonia è una tecnica di riproduzione/registrazione del suono che prevede
molteplici flussi informativi sonori ognuno dei quali destinato ad essere riprodotto da un
diverso diffusore acustico posizionato nell'ambiente d'ascolto diversamente rispetto a
tutti gli altri secondo regole prestabilite.
la stereofonia è normalmente implementata utilizzando due flussi informativi sonori
ognuno dei quali destinato ad essere riprodotto da un diverso diffusore acustico
posizionato nell'ambiente d'ascolto frontalmente all'ascoltatore nel seguente modo: un
diffusore sulla sinistra dell'ascoltatore e un diffusore sulla destra dell'ascoltatore, distanti
tra loro almeno un metro e mezzo, rivolti verso l'ascoltatore e disposti simmetricamente
rispetto ad esso in modo da formare tra loro un angolo compreso tra i 44 e i 60 gradi.
Suono sterefonico
SUONO MULTICANALE
Il Dolby Stereo è uno standard proprietario di audio multicanale sviluppato dalla Dolby Laboratories (detentrice anche dei diritti di
utilizzo) per la distribuzione di film su pellicola 35 mm. Utilizzato a partire dal 1975, la sua caratteristica principale, che ne ha
decretato un vastissimo successo tanto da renderlo, negli anni '80 del XX secolo, uno standard de facto per la pellicola 35 mm, è
che si presenta come audio stereofonico.
Il Dolby Stereo utilizza un sistema di riduzione di rumore per il miglioramento delle prestazioni audio. Tale sistema è il "Dolby A" e,
a partire dal 1987, il "Dolby SR", quest'ultimo in grado di offrire migliori prestazioni.
L'audio Dolby Stereo prevede tre diverse configurazioni di canali audio, due a tre canali audio e una a quattro:
SUONO MULTICANALE
Il Dolby Surround è uno standard proprietario di audio multicanale sviluppato dalla Dolby Laboratories la quale ne detiene anche i
diritti di utilizzo.
Deriva dall'audio Dolby Stereo del quale rappresenta una versione meno potente. È stato sviluppato per l'home video e utilizzato
in seguito anche per la televisione e i videogiochi, in particolare è stato il primo standard di audio multicanale dotato di surround e
dedicato a tali ambiti di utilizzo. La sua caratteristica principale, che ne ha decretato un vasto successo negli anni novanta del XX
secolo, è che, analogamente all'audio Dolby Stereo, si presenta come audio stereofonico. Attualmente è usato anche nei cinema.
L'audio Dolby Surround prevede tre diverse configurazioni di canali audio, due a tre canali audio e una a quattro:
SUONO MULTICANALE
Il Dolby Digital è un sistema di codifica audio multicanale digitale
sviluppato da Dolby Laboratories e utilizzato al cinema, nella televisione
digitale, nei Laser Disc, DVD e in altri supporti di riproduzione o
trasmissione audio digitale.
Il Dolby Digital è un sistema di codifica cosiddetto "lossy", ovvero in cui
la codifica audio avviene con perdita di informazioni.
Il Dolby Digital può lavorare da un minimo di 1 a un massimo di 7
canali audio digitali a banda piena (20 Hz-22 kHz), codificati a 48 kHz
di campionamento e 16 bit di risoluzione, più un ulteriore canale
destinato alla sola riproduzione delle basse frequenze (canale LFE Low Frequency Effects). Questo speciale schema si indica con "5.1" e i
5 canali sono: anteriore destro (R) anteriore sinistro (L), centrale (C),
surround destro (SR), surround sinistro (SL). I primi due corrispondono
al collocamento dei normali canali stereo, il centrale va posizionato al
centro dei due canali stereo anteriori, in corrispondenza dello schermo,
i surround vanno collocati lateralmente o leggermente arretrati
rispetto al punto di ascolto. Il LFE non ha una collocazione precisa, in
quanto le basse frequenze sono meno direttive.
SUONO MULTICANALE
Il Digital Theater System (DTS) è un sistema di codifica audio
multicanale introdotto al cinema con il film Jurassic Park in diretta
concorrenza con il Dolby Digital e ora diffuso su LaserDisc, DVDVideo, DVD-Audio, CD e sui nuovi supporti HD DVD e Blu-ray.
Il DTS è un sistema di codifica audio di tipo lossy, ovvero con perdita di
informazione, ma con possibilità di essere utilizzato in modalità lossless,
ovvero trasparente - senza perdita di informazione, possibilità che è
stata implementata nella versione del DTS chiamata DTS-HD Master
Audio.
Il DTS, codifica audio a 5.1 canali con una frequenza di campionamento
di 48.000 Hz e risoluzione massima di 24 bit per canale. Il bitrate
standard è pari a 1536 kbit/s, ovvero 4 volte superiore al bitrate
tipicamente utilizzato dal Dolby Digital 5.1.
Come per il Dolby Digital il DTS può avere anche configurazione 7.1
con l’aggiunta di due canali extra laterali all’ascoltatore
DIGITAL AUDIO
WORKSTATION
Una digital audio workstation (DAW) è un sistema elettronico progettato per la registrazione, l'editing e la
riproduzione dell'audio digitale. Il termine "DAW" semplicemente si riferisce a una combinazione di software per la registrazione multitraccia
e di hardware audio di alta qualità - quest'ultimo deve avere la capacità di convertire il segnale audio tramite
un convertitore analogico-digitale. Mentre quasi tutti i personal computer con un software di editing possono funzionare in qualche modo
come una DAW, il termine si riferisce in generale a sistemi informatici con hardware per il campionamento
audio di alta qualità e con un software dedicato alla registrazione e l'editing; alcuni di questi software sono
Logic Pro, Pro Tools, Cubase, Ableton Live, o Digital Performer.
La maggior parte dei software di registrazione e editing permettono di gestire sia audio campionato
acquisito da schede di acquisizione audio sia tracce di sequenziamento musicale, in cui sono presenti
informazioni sulle note musicali da riprodurre tramite sintetizzatori o campionatori hardware o software
controllati tramite protocollo MIDI.
Sostanzialmente un software di editing può essere considerato come un mixer audio virtuale e un
sequencer multitraccia per l’elaborazione delle singole tracce audio o strumentali.
DIGITAL AUDIO
WORKSTATION
MIXER
EQ (equalizzatore): Amplifica o attenua una certa banda di frequenze lasciando inalterate
le altre
Input: Specifica a quale ingresso è connesso il canale del mixer
Audio FX: Contiene gli effetti (filtri) applicati al canale del mixer
Sends: Invia il segnale in ingresso a dei BUS (connessioni interne del mixer) in modo da
poter raggruppare tra loro vari canali sotto un unico controllo
Output: Specifica a quale canale di uscita viene inviato il segnale, normalmente scollegato
se vengono usati dei send verso BUS interni
Panpot (panoramic potentiometer - potenziometro panoramico): Controlla la
percentuale di segnale che viene spedita ad una coppia di bus.
Fader (cursore): Controlla la quantità di segnale che viene inoltrato verso il mix bus o
verso i gruppi.
Mute (canale muto): Premendo questo bottone il canale viene interrotto.
Solo (canale solo): Premendo questo bottone, tutti gli altri canali vengono messi in
modalità mute
DIGITAL AUDIO
WORKSTATION
TRACCE AUDIO
Le tracce audio di una DAW sono stracce che contengono un canale audio campionato. Vengono utilizzare per
sequenziare registrazioni dal vivo di strumenti musicali, pattern audio come le basi di batteria o di basso o la voce di un
cantante.
Le tracce audio possono venir filtrate con appositi filtri audio per equalizzare il suono, applicare effetti o migliorare la
qualità del suono.
TRACCE DI
SEQUENZIAMENTO
Le tracce di sequenziamento contengono eventi musicali quali la nota, il tempo di attacco e di sustain, il volume.
Sono tracce che vengono utilizzate per controllare la generazione del suono da parte di strumenti elettronici virtuali o
esterni alla DAW quali i sintetizzatori e i campionatori. Possono anche essere usate per controllare la variazione nel
tempo dei parametri dei filtri di una traccia audio.
SCHEDE ACQUISIZIONE
AUDIO
Le schede di acquisizione audio permettono di registrare canali multitraccia di tipo differente: ingressi
microfono, ingressi linea, ingressi digitali S/PDIF, dispositivi MIDI e di riprodurre in uscita i segnali elaborati
con frequenze di campionamento fino a 192 kHz e fino a 24 bit di quantizzazione
SCHEDE ACQUISIZIONE
AUDIO
Ingressi microfono: sono ingressi analogici per il collegamento di microfoni o
chitarre elettriche.
Ingressi linea: sono ingressi analogici per il collegamento di segnali audio
preamplificati come ad esempio l’uscita di un sintetizzatore, di un campionatore, di
un lettore CD, o di un registratore audio.
Ingressi digitali S/PDIF: è l'acronimo di Sony/Philips Digital Interface Format
(Interfaccia Digitale Sony / Philips). È una collezione di specifiche hardware e
protocolli per il trasporto di segnali audio digitali stereo tra periferiche come ad
esempio un registratore DAT.
Ingressi MIDI: sono connessioni per l’interfacciamento di controller o strumenti
musicali tramite il protocollo MIDI.
MIDI
Con l'acronimo MIDI (Musical Instrument Digital Interface) si indica il
protocollo standard per l'interazione degli strumenti musicali elettronici.
Il MIDI indica due cose: un linguaggio informatico, ossia una serie di
specifiche che danno vita al protocollo, e un'interfaccia hardware, che
consente il collegamento fisico tra vari dispositivi.
Un collegamento MIDI consiste in una connessione seriale unidirezionale
che funziona a una velocità di trasmissione di 32 kbps.
Gli strumenti musicali e le varie attrezzature MIDI devono essere
fisicamente connesse per poter comunicare tra di loro. A questo scopo, lo
standard MIDI prevede l'uso di una triade di connettori DIN a 5 poli che
consentono il collegamento fisico tra gli strumenti. I tre connettori vengono
distinti come:
•
•
•
IN - consente al dispositivo di ricevere informazioni.
OUT - consente al dispositivo di trasmettere informazioni.
THRU - consente al dispositivo di ritrasmettere i dati ricevuti dalla
propria porta IN verso un altro dispositivo.
MIDI
Una delle caratteristiche fondamentali del MIDI è l'essere un'interfaccia multicanale.
Grazie a delle applicazioni software chiamate sequencer, si possono registrare performance musicali sotto
forma di "messaggi MIDI" per poterle successivamente modificare e riascoltare.
Il compito di sincronizzare le varie sequenze MIDI è delegato al codice temporale MIDI, standard mondiale
per la sincronizzazione della musica digitale che costituisce un'implementazione del codice temporale
SMPTE.
Il MIDI supporta fino 16 canali ossia è in grado di inviare messaggi MIDI a 16 dispositivi differenti.
Un file MIDI è un file che contiene dati comunicabili tramite il protocollo MIDI. A differenza di un file audio i file MIDI non contengono campioni di audio, ma messaggi da inviare ad uno
strumento musicale elettronico che specificano tra l’altro la nota da suonare, la sua intensità e la sua durata.
MIDI
Un Controller MIDI è un dispositivo hardware o a un software che genera e trasmette dati MIDI ad un dispositivo MIDI
attivo.
Tra i vari tipi di Controller MIDI troviamo:
• L'interfaccia umana di uno strumento tradizionale riprogettato come un dispositivo di controllo MIDI. Il tipo più
comune di dispositivo di questa categoria è il controller a tastiera. Tale dispositivo fornisce una tastiera musicale e
spesso altri attuatori (pitch bend e modulation, per esempio) ma non produce alcun suono da solo. Esso è destinato
solo a guidare e controllare altri dispositivi MIDI. • Strumenti musicali elettronici, compresi sintetizzatori, campionatori, drum machine e batterie elettroniche, che
vengono utilizzate per eseguire musica in tempo reale e sono di per sé in grado di trasmettere un flusso di dati MIDI
legati alla performance.
• Strumenti tradizionali, come batterie, pianoforti acustici e fisarmoniche che sono dotati di sensori e un processore che
accetta input dai sensori stessi per trasmettere in tempo reale dati e informazioni MIDI sulle performance. Le
informazioni sui gesti del musicista (ad esempio, quali note o percussioni sono colpite, e con quanta intensità), vengono
poi inviate ad un modulo o un computer che converte i dati in suoni (ad esempio, campioni o suoni sintetizzati).
• Sequencer, per archiviare e recuperare dati MIDI da inviare al dispositivo MIDI attivato per riprodurre una
performance.
TIMECODE SMPTE
Il timecode è una sequenza di codici numerici generata a intervalli regolari da un sistema temporizzato.
Si tratta di un segnale di ampio utilizzo in diversi ambiti per la sincronizzazione di segnali e per la scalettatura
del materiale registrato su supporti audio/video.
Il timecode è aggiunto a materiale video, audio o cinematografico ed è anche stato adattato per la
sincronizzazione musicale, fornendo in ogni caso un riferimento temporale per il montaggio e la scalettatura
del materiale.
Il timecode SMPTE contiene un'identificazione oraria in formato
ore:minuti:secondi:fotogrammi
I fotogrammi dipendono dallo standard televisivo adottato:
• 24 fotogrammi per secondo (cinema)
• 25 fotogrammi per secondo (televisione a colori PAL)
• 29.97 (30) fotogrammi per secondo (televisione a colori NTSC)
• 50 o 60 fotogrammi per secondo (HDTV) a scansione progressiva
STRUMENTI MUSICALI
ELETTRONICI
Nella classificazione degli strumenti musicali e' stata introdotta la classe degli
"elettrofoni".
Rientrano in questa categoria tutti gli strumenti che hanno caratteristiche di
estensione, suddivisione degli intervalli e tecniche di esecuzione assimilabili a
strumenti tradizionali, ma che richiedono l'utilizzazione di circuiti elettronici
per produrre o elaborare suoni.
Nelle apparecchiature elettroniche per musica nessun parametro
caratterizzante l'evento sonoro è prefissato, e l'utilizzatore deve procedere
in primo luogo alla definizione di detti parametri e alla programmazione
degli interventi manuali o automatici che dovranno verificarsi nel tempo
della composizione.
STRUMENTI MUSICALI
ELETTRONICI
Classe
Generazione del suono Descrizione
ELETTRONICI
Polifonici
Semipolifonici
Gli elettronici polifonici sono in grado di produrre simultaneamente tutte le frequenze costituenti la
La generazione avviene loro estensione. in questo tipo di strumento le oscillazioni sono generate in continuazione e
vengono convogliate all'altoparlante (tramite l'amplificatore) solo quando i tasti vengono premuti.
mediante circuiti
elettronici detti
oscillatori
Gli elettronici monofonicisono strumenti in grado di produrre una sola frequenza alla volta perché
dotati di un solo oscillatore, la cui frequenza varia in funzione del tasto premuto.
Monofonici
ELETTROMECCANICI
Elettromagnetici
Elettrostatici
A contatto
COMBINATI
Gli elettronici semipolifonici sono strumenti che possono produrre solo un certo numero di
frequenze, inferiori di molto al numero dei tasti di cui sono dotati.
Strumenti in cui i
segnali elettrici sono
generati da trasduttori
elettromeccanici
Caratteristica degli strumenti elettronici elettromeccanici è la presenza di elementi
mobili che, spostandosi a frequenza controllata nell'ambito di campi magnetici o
elettrostatici, generano variazioni di correnti elettriche indotte. Tra gli strumenti
elettromagnetici troviamo l'organo Hammond, e le chitarre elettriche; tra gli
elettrostatici il piano elettrico Wurlitzer
Strumenti tradizionali le
cui vibrazioni vengono
raccolte con un
Gli strumenti elettronici combinati nascono dall'elaborazione del suono di strumenti
microfono ed
tradizionali tramite microfono e apparecchiature elettroniche.
elaborate con circuiti
elettrici
GENERATORI
L'oscillatore produce il suono elettricamente generando una tensione alternata che oscilla tra zero-positivo-zero-negativo-zero.
Quando il segnale prodotto da un oscillatore si amplifica e si invia ad un altoparlante il suono udibile dipenderà' dall'oscillatore sia per la
frequenza che per il timbro.
Un buon oscillatore si estende in frequenza da circa 0,05 Hz a 20 kHz (full range), ed e' in grado di produrre simultaneamente diverse
forme d'onda. le forme d'onda più' comuni disponibili nella maggior parte degli oscillatori in commercio sono:
• ONDA SINUSOIDALE - (SINE WAWE)
• ONDA TRIANGOLARE - (TRIANGLE WAWE)
• ONDA QUADRA - (SQUARE WAWE)
• ONDA A DENTE DI SEGA - (SAWTOOTH WAWE)
!
GENERATORI
L'onda sinusoidale e' assolutamente priva di armonici. Essendo costituita soltanto dalla
fondamentale viene spesso definita suono puro.
L'onda triangolare contiene oltre alla fondamentale, una serie di armonici dispari con ampiezza
progressivamente decrescente verso gli armonici acuti. Caratteristica dell'onda triangolare e' che le
armoniche dispari vengono a trovarsi, alternativamente in opposizione di fase di 180 gradi tra loro.
L'onda quadra ha oltre la fondamentale solo gli armonici dispari con andamento decrescente
dell'ampiezza degli armonici acuti.
L'onda a dente di sega contiene con ampiezza deradante verso l'acuto tutti gli armonici pari e
dispari.
Vi sono anche oscillatori che producono solo frequenze subsoniche (sotto i 20 Hz) che vengono
solitamente adoperati come circuiti di controllo, e per modulare i suoni in frequenza (vibrato) e in
ampiezza (tremolo). Questi vengono chiamati "LFO" (low frequency oscillator), o oscillatori "low
range".
GENERATORI
Il generatore di rumore ha delle caratteristiche particolari in quanto non
produce una determinata forma d'onda, ma una tensione alternata i cui
valori di ampiezza momentanei sono assolutamente casuali.
Graficamente il rumore appare come una fascia piena di linee raffiguranti
tutte le onde che lo compongono.
Quando il rumore e' caratterizzato da una distribuzione media uniforme
dell'energia lungo l'intera gamma delle frequenze (da 20 Hz a 20 kHz)
siamo in presenza del "rumore bianco" (white noise). Se si riduce l'ampiezza delle componenti acute filtrandole otterremo un
rumore "colorato" o "rumore rosa" (pink noise).
Se filtriamo drasticamente un rumore in modo tale da lasciare solo le
componenti più' gravi, otterremo una serie di impulsi assolutamente
casuali come ampiezza e successione nel tempo. Questo segnale si chiama "random", e serve a provocare successioni
aleatorie di eventi (spostamenti di frequenza, cambi timbrici ecc.).
GENERATORI
L'inviluppo e' un evento che partendo dallo zero, passa attraverso diversi livelli di
tensione programmabili nella durata (sub eventi) ritornando alla fine del suo ciclo
allo zero iniziale.
I sub eventi che determinano l'inviluppo sono generalmente quattro, essi sono:
• TEMPO DI ATTACCO- (ATTACK) Che corrisponde alla fase di incremento
della tensione dallo zero iniziale al massimo consentito dal circuito. il tempo
di salita viene prefissato con un comando manuale e solitamente varia tra 1
ms e 2 sec.
• TEMPO DI DECADIMENTO- (DECAY) Corrisponde alla fase di
decremento della tensione dal massimo raggiunto in fase di attacco, fino allo
zero o al livello di tenuto. la durata di questa fase e' determinabile con un
comando manuale e anch'essa solitamente può' variare tra 1 ms e 2 sec.
• TENUTO- (SUSTAIN) E' un livello intermedio di tensione, determinabile con
un comando manuale, sul quale l'inviluppo può' stazionare a tempo indefinito,
in dipendenza dal segnale di controllo applicato all'ingresso.
• DECADIMENTO FINALE- (RELEASE) E' l'ultimo sub evento che riporta la
tensione a zero partendo dal livello raggiunto dall'attacco o dal tenuto. il
tempo di decadimento finale può' essere scelto come per l'attacco e il
decadimento.
SINTETIZZATORE
Il sintetizzatore (abbreviato anche a synth dal termine in inglese) è uno strumento musicale che appartiene
alla famiglia degli elettrofoni.
È un apparato in grado di generare autonomamente segnali audio, sotto il controllo di un musicista o di un
sequencer.
Si tratta infatti di uno strumento che può generare imitazioni di strumenti musicali reali o creare suoni ed
effetti non esistenti in natura.
Attualmente esistono sintetizzatori virtuali realizzati tramite appositi moduli software (VST).
Un sintetizzatore è fondamentalmente costituito da un certo numero di oscillatori che generano delle onde
sinusoidali, quadre o a dente di sega e da un insieme di filtri che, connessi in una determinata configurazione,
generano dei suoni più o meno naturali.
Tramite una tastiera o un controller MIDI è possibile modulare sulle note di una scala musicale il suono
generato dal sintetizzatore.
SINTETIZZATORE
Alla base della concezione del sintetizzatore si trovano due tecniche di sintesi del
suono: la sintesi additiva, e la sintesi sottrattiva.
La sintesi additiva, deriva direttamente dal teorema di Fourier (che dice che tutti i
suoni si possono scomporre in una serie di onde sinusoidali sovrapposte, mentre
il teorema di Walsh dice che tutti i suoni si possono scomporre in una serie di
onde quadre) e permette la costruzione di spettri complessi per addizione di
suoni sinusoidali.
La sintesi sottrattiva, al contrario permette la costruzione di spettri per
sottrazione di armoniche (mediante filtri) da forme d'onda complesse.
normalmente un sintetizzatore e' costituito da circuiti che adempiono alle funzioni
essenziali di generazione, elaborazione, e controllo.
SINTETIZZATORE
Fanno parte dei circuiti di generazione i generatori di rumore (bianco e/o rosa), e gli
oscillatori controllati in tensione o VCO (voltage controlled oscillator), in cui la frequenza
delle oscillazioni e' determinata da una tensione di controllo;
I circuiti di elaborazione sono quelli che modificano il segnale prodotto dai generatori
trasformandolo nel timbro.Questi sono costituiti fondamentalmente dai filtri controllati in
tensione o VCF (voltage controlled filters), la cui frequenza di taglio e/o la pendenza di
taglio possono essere controllate in tensione, dagli amplificatori controllati in tensione o
VCA (voltage controlled amplifiers), in cui il volume dell'amplificatore dipende da una
tensione di controllo, e dai generatori d'inviluppo, con cui si determina l'evoluzione
temporale del timbro.
I circuiti di controllo sono quelli che rendono disponibili tensioni con cui gestire i circuiti di
generazione e di elaborazione. Questi sono numerosissimi e vanno dalla tastiera (con cui e'
possibile suonare il sintetizzatore anche nel sistema temperato ), ai sequencer, che una volta
programmati possono far eseguire al sintetizzatore delle intere composizioni.
SINTETIZZATORE
Il Theremin, inizialmente denominato eterofono, è un strumento musicale elettronico, il
più antico conosciuto che non preveda il contatto fisico dell'esecutore con lo strumento.
Venne inventato nel 1919 dal fisico sovietico Lev Sergeevič Termen e si basa su oscillatori
che, lavorando in isofrequenza al di fuori dello spettro udibile, producono, per alterazioni
delle loro caratteristiche a seguito della presenza delle mani del musicista nel campo
d'onda, dei suoni sul principio fisico del battimento, questa volta nel campo delle
frequenze udibili.
Questo strumento è composto fondamentalmente da due antenne poste sopra e a lato
di un contenitore nel quale è alloggiata tutta l'elettronica. Il controllo avviene allontanando
e avvicinando le mani alle antenne: mediante quella superiore (posizionata verticalmente)
si controlla l'altezza del suono, quella laterale (posta orizzontalmente) permette di
regolarne l'intensità. Il timbro può variare tra quello di un violino e quello vocale. Lo
strumento è considerato molto difficile da suonare proprio perché lo si suona senza
toccarlo, quindi senza facilmente visibili riferimenti di posizione relativa delle due mani.
Il theremin è stato utilizzato anche in numerose colonne sonore di film, tra cui “Io ti
salverò” di Alfred Hitchcock, “in Qualcuno volò sul nido del cuculo”, nella sigla iniziale dei
cartoni animati di Scooby Doo.
Il theremin può essere utilizzato anche come interfaccia per pilotare altri strumenti
musicali.
SINTETIZZATORE
L'organo Hammond è un organo elettrico progettato e costruito da Laurens Hammond
nel 1935.
L'organo Hammond sfrutta una serie di ruote foniche (dette tonewheels), formalmente
simili ad ingranaggi, che ruotano grazie ad un motore sincrono, cioè legato alla frequenza
della rete elettrica.
Il continuo avvicinarsi ed allontanarsi dei denti della ruota fonica crea una variazione di
campo magnetico in corrispondenza del pick-up, proprio come avviene per la chitarra
elettrica.
Una caratteristica unica che contraddistingue gli organi Hammond è l'utilizzo dei drawbar
(tiranti) che permettono al musicista di variare a piacere il volume relativo al missaggio
generale delle armoniche. Ogni controllo è dotato di un'asta marcata con 9 posizioni
numerate da 0 a 8, dove a barra tutta inserita (cioè in posizione 0) il volume della relativa
armonica sarà nullo e a barra tutta estratta (cioè in posizione 8) sarà massimo.
Utilizzato da musicisti come Ray Manzarek dei Doors, Richard Wright dei Pink Floyd per
“The Dark Side of the Moon”, Tony Banks dei Genesis, Jon Lord dei Deep Purple.
SINTETIZZATORE
Il sistema Moog modular consisteva in una serie di moduli montati su un
telaio.
Ogni modulo eseguiva una funzione diversa, di generazione del segnale o
modifica di una funzione specifica.
Questi moduli offrivano un controllo ed una possibilità di creazione
sonora senza precedenti, permettendo al musicista di agire sulle forme
d'onda primarie , sulla modulazione sonora e su altri vari parametri del
suono.
I moduli potevano essere collegati fra loro con cavi.
Queste, assieme alle manopole di modulazione dei parametri, potevano
essere modificate, assieme o separatamente, e consentivano di ottenere
una gamma di suoni praticamente infinita.
Il suono finale veniva infine eseguito o tramite una tastiera.
Utilizzato da musicisti quali Wendy Carlos per “Switched-On Bach” e la
colonna sonora di “Arancia Meccanica”, Richard Wright dei Pink Floyd
per “Shine on You Crazy Diamonds” e Jean Michel Jarre per “Oxygene”.
SINTETIZZATORE
Il Prophet-5 introdotto nel 1978 è uno dei primi sintetizzatori analogici
dotato di capacità polifoniche, ossia di riprodurre più di una nota in
contemporanea e la possibilità di memorizzare le varie configurazioni
all’interno di una scheda di memoria.
Il Prophet 5 è famoso per la qualità dei suoni a basse frequenze, “grassi”
e caldi, e per la vastissima gamma di possibilità nella modulazione dei
suoni in maniera polifonica.
Utilizzato da musicisti quali Richard Wright dei Pink Floyd per “The Wall”,
ABBA, Berlin, Paul Mc Cartney, Mike Oldfield.
CAMPIONATORE
Il campionatore (in inglese sampler) è uno strumento musicale elettronico che è in grado di acquisire
campioni audio per riconoscerne un suono approssimativo alle note musicali del pentagramma.
I campioni sono di solito registrazioni digitali di strumenti musicali acustici o elettronici, registrati su più
tonalità per garantire una fedeltà sonora costante su tutta l'estensione della tastiera e con diverse dinamiche
per conservare la personalità dello strumento. Tuttavia i campionatori sono molto utilizzati anche per riprodurre effetti speciali ed elaborazioni di suoni
artificiali.
È possibile campionare qualsiasi tipo di suono o rumore e, grazie al campionatore, è possibile suonarlo.
Tuttavia è più facile imbattersi in campionamenti di strumenti musicali, perlopiù acustici.
Grazie alla grande disponibilità di memoria nelle apparecchiature digitali, si fa spesso uso del
multicampionamento, che consiste nel campionare più note di uno stesso strumento per aumentare
l'espressività e la veridicità del risultato.
CAMPIONATORE
Il Mellotron è uno strumento musicale a tastiera divenuto popolare tra
la fine degli anni sessanta e la prima metà degli anni settanta.
È considerato l'antenato dei moderni campionatori, poiché la pressione
di ciascun tasto innesca la riproduzione di un segmento di nastro
magnetico su cui è stato precedentemente registrato il suono.
La durata del campione era di 8 secondi; terminato il segmento di nastro,
bisognava alzare il dito dal tasto e ripremerlo. In quella frazione di
secondo una molla riavvolgeva il nastro riposizionandolo al punto di
start.
È stato usato da vari artisti tra cui The Beatles, Moody Blues, Genesis,
Brian Jones dei Rolling Stones, Richard Wright dei Pink Floyd, John Paul
Jones dei Led Zeppelin, Jethro Tull .
FILTRI ED EFFETTI AUDIO
L'equalizzazione è una tecnica molto diffusa e conosciuta nel trattamento
dei segnali audio.
Essa rappresenta il procedimento di filtraggio a cui è sottoposto un segnale
audio per compensare eventuali disuniformità della risposta in frequenza
(distorsione) dell'apparato o sistema che lo produce o durante l'operazione
di mastering (post-produzione) per ottenere una ben precisa tipologia di
suono, o ancora durante il mixaggio per ottenere il suono desiderato.
Per raggiungere lo scopo si utilizzano filtri chiamati equalizzatori che
permettono di amplificare o attenuare determinate frequenze. L'equalizzazione può inoltre avere lo scopo di:
•
•
•
•
•
rendere il suono più piacevole;
dare risalto ad alcune sue componenti (ad esempio alcuni strumenti di
un'orchestra);
attenuare i disturbi (ad esempio il fruscio);
creare suoni completamente nuovi;
linearizzare l'acustica dell'ambiente di ascolto in base ai diffusori usati;
FILTRI ED EFFETTI AUDIO
La compressione è utilizzata durante la registrazione in
studio, oppure in applicazioni "live" cioè come rinforzo
del segnale dal vivo, o ancora in trasmissione
radiofonica al fine di ottimizzare il livello del segnale
sonoro, in modo che esso venga percepito al meglio,
qualunque sia il sistema di riproduzione in uso. In
pratica, un compressore è un sistema utilizzato per
ridurre l'escursione dinamica di un segnale.
Il compressore può essere descritto, in termini
semplici, come un amplificatore soggetto a un
controllo automatico del volume. I suoni forti che
superano una certa soglia vengono ridotti di volume,
mentre i suoni deboli non vengono modificati
(compressione verso il basso) mentre un intervento
che renda più forti i segnali che giungono deboli
all'ingresso e non intervenga su quelli che abbiano già
un livello elevato è chiamato compressione verso
l'alto.
FILTRI ED EFFETTI AUDIO
In fisica e acustica il riverbero è un fenomeno
acustico legato alla riflessione dell'onda sonora
da parte di un ostacolo posto davanti alla fonte
sonora.
Il riverbero viene ricreato artificialmente per
essere applicato durante spettacoli musicali o in
studio di registrazione alla voce ed agli strumenti
musicali per simulare esecuzioni musicali in spazi
ampi o per conferire maggiore profondità ad un
suono.
FILTRI ED EFFETTI AUDIO
Il chorus è un effetto elettronico per strumenti
musicali elettrificati o elettronici, ma può essere
utilizzato anche per la voce, il cui scopo è di
simulare la compresenza di più sorgenti sonore
dello stesso tipo, come avviene per un coro di
voci o un duo (o più) di strumenti musicali
uguali che eseguono la medesima partitura.
La struttura dell'effetto consiste in un mixer che
raggruppa, oltre al segnale di ingresso inalterato,
una o più voci supplementari da esso ricavate
mediante l'utilizzo di linee di ritardo.
Il mixer riunirà pertanto più segnali audio, con
fase e altezza leggermente differenti, generando
così la sensazione di più sorgenti simultanee.
COFFEE BREAK