...

Scarica il testo completo

by user

on
Category: Documents
167

views

Report

Comments

Transcript

Scarica il testo completo
UNIVERSITA’ DEGLI STUDI DI NAPOLI
“FEDERICO II”
FACOLTA’ DI MEDICINA E CHIRURGIA
CORSO DI LAUREA IN
TECNICHE AUDIOPROTESICHE
Presidente: Prof. Elio Marciano
TESI DI LAUREA
PROTESI DIGITALI E
VALUTAZIONE DEI MICROFONI DIREZIONALI
Relatore
Ch.mo Prof.
Gennaro Auletta
Candidato
Fabio Di Napoli
Matr. 585 / 02
Correlatore
Dott. Pasquale Riccardi
Anno Accademico 2005 – 2006
Dedicata alla mia famiglia…
…e in particolar modo a mio padre!
-2-
INDICE
I.
CAPITOLO – Protesi Acustiche Digitali
1.1
1.2
1.2.1
1.2.2
1.2.3
1.2.4
II.
Introduzione
pag. 4
Architettura della Protesi Digitale
Sistemi di Ottimizzazione del Segnale
pag. 7
pag. 11
Riduzione Digitale dell’Effetto Larsen
Riduzione Digitale del Rumore
Riduzione Digitale del Riverbero
Enfatizzazione Digitale del Parlato
pag. 11
pag. 13
pag. 15
pag. 16
CAPITOLO – I Microfoni
pag. 19
2.1
2.2
pag. 19
pag. 22
Microfoni Direzionali e DSP
Tecnologie a Confronto
2.2.1 Tipologie di Microfoni
2.3
2.4
2.5
2.6
2.7
III.
pag. 4
Caratteristiche fondamentali di un microfono
Diagrammi Polari
Sistemi Direzionali
Direzionalità Adattiva Multibanda
Come Valutare la Qualità di un Microfono
pag. 23
pag. 26
pag. 28
pag. 29
pag. 36
pag. 37
CAPITOLO – Sperimentale
pag. 39
3.1
pag. 39
Descrizione del Sistema
3.1.1 Software Viper
3.2
3.3
3.4
Fast Fourier Transform
Sonogramma e Spettrogramma
Protesi Acustica utilizzata nei tests
3.4.1 Funzionalità del Destiny™ 400 Dir
3.4.2 Caratteristiche Elettroacustiche del Destiny™ 400 Dir
3.5
Acquisizione e Analisi dei Dati
3.5.1 Acquisizione dei Segnali Provenienti da Diverse Angolazioni
3.5.2 Analisi e Verifica dei Dati
3.5.3 Valutazioni Finali
pag. 40
pag. 41
pag. 44
pag. 46
pag. 46
pag. 47
pag. 47
pag. 48
pag. 50
pag. 53
Conclusioni
pag. 55
Bibliografia
pag. 55
-3-
CAPITOLO
I
PROTESI ACUSTICHE DIGITALI
Introduzione
La protesizzazione acustica è un complesso processo terapeutico indicato
in tutti i casi di ipoacusia invalidante non trattabile farmacologicamente o
chirurgicamente. Il trattamento appropriato dei pazienti con deficit uditivo
consiste nella diagnosi precoce del deficit, nella valutazione delle capacità di
sviluppo, nella dotazione di apparecchi acustici appropriati ed infine in un followup teso ad assicurare che le protesi installate funzionino adeguatamente, che siano
le più adatte e che vengano usate con costanza.
La prima protesi acustica era semplicemente un amplificatore con un guadagno di
un fattore predefinito in fase di progettazione. In altre parole un segnale entrava al
suo ingresso con una grandezza di alcuni microvolt ed usciva più grande
di 100 – 1000 volte, ma uguale a sé stesso. Più grande ma ANALOGO, da cui
il nome ANALOGICO, a quello che era entrato
( amplificazione di tipo
“lineare” ); a volte anche peggiorato poiché alterato dalle distorsioni generate dal
sistema stesso. Col tempo, si sono avuti i primi controlli aggiuntivi: filtri passivi
che permettevano di modificare in modo personalizzato la curva di risposta
dell’apparecchio acustico; toni alti, toni gravi, l’MPO o anche uscita massima;
vari AGC, filtri che avevano comunque pendenze limitate. Di seguito diamo una
rappresentazione schematica di una protesi acustica analogica ( Fig. 1 ):
Fig. 1.
-4-
I prodotti analogici si offrono però a numerosi spunti critici, riguardanti la
difficoltà, riferita dai pazienti, sull’adattamento alle varie situazioni di ascolto
( silenzio, rumore, musica, ambiente affollati, suoni forti, etc … ) e l’effettiva
difficoltà di discriminazione verbale in ambiente rumoroso, rumore di fondo
eccessivo e fenomeni di feed-back.
Ovviamente
l’innovazione
tecnologica
ha
permesso
l’introduzione sul mercato di protesi acustiche sempre più
sofisticate ( programmabili e digitali ) capaci di rispondere
al meglio
alle
aspettative
del paziente
ipoacusico,
permettendo un’adeguata personalizzazione del prodotto
rispetto all’audiogramma ( perdita acustica ) del paziente
stesso.
In realtà, non esiste fondamentalmente una gran differenza fra tecnologia
analogica e programmabile, nel senso che il modo di operare sul segnale è
esattamente lo stesso in entrambi i mondi tecnologici. Ciò che differenzia i due
mondi è sostanzialmente il fatto che la tecnologia programmabile può fare
affidamento su una elevata miniaturizzazione mentre nell’analogico la
miniaturizzazione è di più difficile realizzazione. Per esempio, un trimmer
analogico occupa lo spazio equivalente a dieci/dodici funzioni di trimmer nel
mondo programmabile; non solo, ma nel mondo programmabile i trimmer
elettronici offrono valori ben determinati e facilmente riproducibili. In più la loro
azione può assumere valori e range molto ampi, il che limita il numero di modelli
di cui si necessita per correggere un ampio range di ipoacusie. Un altro vantaggio
offerto consiste in molti casi nella possibilità d’avere diverse tipologie di
limitazioni di uscita, il che consente di adattare al meglio l’apparecchio alle
necessità del cliente, anche se, come avviene negli analogici, non si può
differenziare il limitatore frequenza per frequenza. Con i programmabili sono nati
sistemi di limitazione di tipo WDRC ( Wide Dynamic Range Compression –
Ampia Compressione del Campo Dinamico ), con questo sistema è possibile
ottenere caratteristiche della curva I/O “multisegmentata” cioè composta di
segmenti a pendenza diversa per intervalli diversi del livello dello stimolo
presentato in ingresso ( amplificazione di tipo “non lineare” - Fig. 2 ). Esso è
gestibile tramite software variando soglie e rapporti di compressione.
-5-
La
protesi
digitale,
invece,
si
avvale
di
un
sistema
automatico
di auto-configurazione che persegue ininterrottamente il miglior rapporto
segnale/rumore mutando la sua elaborazione in tempi ristrettissimi dell’ordine di
millesimi di secondo. In questa maniera si attenuano i rumori, anche quelli
improvvisi, e permette alla persona d’avere conversazioni non disturbate.
Queste protesi sono dotate di migliaia di regolazioni per ottenere la combinazione
ottimale d’ascolto ed erogare il migliorare rapporto voce/rumore1 ed è per
questo che le moderne protesi acustiche si adattano alla quasi totalità delle perdite
uditive ( diciamo da lieve a moderata-grave).
Gli apparecchi programmabili2 quindi hanno a
disposizione molti più comandi rispetto agli analogici,
poi presentano la possibilità di agire su caratteristiche
che prima non esistevano: possono avere più canali
di amplificazione; possono avere diversi tipi di
compressione ( duale lenta, duale veloce, sillabica, a tempo di recupero variabile,
adattabile, WDRC, BILL, etc… ); consentono in alcuni casi di modificare i tempi
di azione delle compressioni; consentono di decidere quale tipo di limitazione
della potenza usare per quel particolare cliente, ed altre ancora.
1
La sigla VNR ( rapporto voce/rumore ) si preferisce rispetto a quella SNR ( rapporto
segnale/rumore ) perché il punto focale è rappresentato dalla voce umana piuttosto che dalla
sorgente predominante, che potrebbe anche essere il rumore.
2
La programmazione di questi apparecchi si ottiene mediante inserimento dell’audiogramma del
paziente in un PC. Il software di gestione per gli apparecchi programmabili guida alla selezione
dell’apparecchio acustico più idoneo. Le regolazioni che vengono via-via effettuate possono essere
memorizzate nel microchip dell’apparecchio e opportunamente richiamate dal paziente, in
funzione alle diverse situazioni d’ascolto, spostando o pigiando semplicemente un tasto sull’unità
di programmazione ( le protesi digitali attuali si configurano automaticamente ).
-6-
Confronto
tra
un’amplificazione
“lineare” ed una “non lineare” :
osserviamo che per i suoni fino a 40 dB in
ingresso entrambi i circuiti si comportano
allo stesso modo.
Per i suoni più alti, il “lineare” prosegue
con un’amplificazione costante, invece
il “non lineare” agli 80 dB riduce il
guadagno fino renderlo unitario . Oltre i
100 dB entrambi attenuano ed in uscita non
abbiamo mai più di 120 dB. Con
l’amplificazione di tipo “non lineare” è
possibile risolvere in modo efficace il
problema
legato
alla
sotto/sovramplificazione.
Fig. 2: Curva Ingresso/Uscita di un apparecchio
acustico a funzione “lineare” con peack clipping
e di uno a funzione “non lineare” con
compressione dinamica e compressione limite
( adattata da Killion ).
1.1
Architettura della Protesi Digitale
La protesi acustica è un sistema elettroacustico volutamente a bassa
fedeltà, ossia il segnale d’uscita è distorto rispetto al segnale d’ingresso.
La distorsione è generata per sopperire la perdita acustica del soggetto.
Indipendentemente dal modello e dalle caratteristiche elettroacustiche una protesi
acustica è essenzialmente composta da tre elementi : un trasduttore di ingresso
( microfono ), un amplificatore che viene alimentato da una pila di semplice
sostituzione e un trasduttore di uscita ( altoparlante o impropriamente detto
“ricevitore” ).
In base alla capacità e alle modalità di trattamento del segnale, gli apparecchi
acustici si distinguono in analogici ( tradizionali ), programmabili digitalmente e
totalmente digitali.
Possiamo illustrare una Protesi Acustica Digitale come in Fig. 3:
-7-
Fig. 3: schema a blocchi di una protesi acustica digitale.
I circuiti digitali, in particolare, consentono l’ELABORAZIONE DEL
GUADAGNO (GAIN PROCESSING) ossia l’elaborazione flessibile del
guadagno ad una maggiore udibilità dei suoni riducendo le distorsioni e lo
sconforto con suoni più intensi. La maggiore flessibilità e controllo della
compressione ci viene data dal Digital Signal Processing “DSP” ( Fig. 4 ), tale
dispositivo può creare le condizioni favorevoli per una migliore udibilità.
Nell’apparecchio acustico digitale è stata introdotta, anche, la caratteristica
chiamata “espansione” (ing. Cotrona U., 2004; Notarianni, L., 2004), questa
elaborazione può portare ad una migliore soddisfazione acustica con relativa
riduzione del rumore ambientale di sottofondo o microfonico. Attraverso
l’espansione è possibile ridurre il rumore circuitale. In realtà questa è l’opposto
della compressione ed interviene per ridurre il guadagno ai bassi livelli dei segnali
d’ingresso, eliminando così l’amplificazione dei rumori ambientali senza però
ridurre la parte necessaria alla riproduzione del segnale vocale.
Fig. 4: L’immagine è rappresentativa in quanto la compressione, nelle protesi digitali, agisce sui numeri e non
sulle forme d’onda.
-8-
Il “DSP” è un processore specializzato (CPU) che ha lo scopo di eseguire in
tempo reale applicazioni per l'elaborazione dei segnali digitali al fine di estrarre
informazioni o modificare, in modo opportuno, i segnali sonori. Nel processore
sono implementati complessi algoritmi che permettono al DSP di analizzare,
filtrare ed elaborare il segnale acustico.
Lavorare su segnali digitali significa dover lavorare, non più su segnali analogici e
quindi sulle forme d’onda, ma sui bit, per tale motivo nasce l'esigenza di passare
da un dominio analogico ad un dominio digitale fatto di due soli valori ( 0 e 1 ).
Dovendo lavorare solo su due valori l’elaborazione risulta essere più veloce
permettendo al DSP di effettuare simultaneamente un insieme d'operazioni quali
l'addizione, sottrazione, moltiplicazione, shifting o traslazioni ed altre operazioni
logiche.
Questo tipo di elaborazione ci permette di intervenire solo sui parametri desiderati
senza compromettere la qualità del suono che quindi è nettamente migliore, in più
si possono avere soluzioni personalizzate. Nel digitale i parametri possono essere
programmati da un computer, ciò permette di immettere più opzioni di adattare il
suono man mano che la perdita uditiva fluttua.
Un tipico sistema d'elaborazione dei segnali digitali è costituito dai seguenti
elementi :
-9-
·
Convertitori analogici digitali A/D: campionano e quantizzano il segnale
analogico o meglio lo digitalizzano assegnando ad ogni punto della forma
d’onda (segnale anologico) un valore finito (un numero). Una volta
digitalizzato, il segnale, è portato in ingresso al processore dove viene
elaborato e modificato in accordo a quelle che sono le regole predefinite
dal programma (algoritmi).
·
Processore dei segnali digitali DSP3.
·
Memoria RAM: il blocco RAM rappresenta la memoria volatile, in essa
sono memorizzate le istruzioni e i dati elaborate dal DSP e
momentaneamente immagazzinate nella memoria. Spesse volte la RAM
viene implementata sul DSP per accelerare le operazioni di lettura e
scrittura incrementando le prestazioni del sistema.
·
Memoria ROM4: Il blocco ROM rappresenta la memoria non volatile
ove sono memorizzate le istruzioni necessarie per inizializzare il
processore dei segnali digitali. Il contenuto della ROM resta invariato
anche in assenza di alimentazione e, al momento dell'accensione del
sistema, è scaricato sul blocco RAM.
·
Convertitori digitali analogici D/A5: trasducono il segnale digitalizzato
ed elaborato nel dominio analogico per poter essere interpretato
dall’ipoacusico.
Esiste anche un’altra unità di memoria la EPROM, acronimo di Erasable
Programmable Read Only Memory, è una memoria riscrivibile tramite impulsi
elettrcici: si tratta di un'evoluzione della ROM che, una volta programmata, non
poteva essere più modificata; la EPROM invece può essere totalmente cancellata e
riprogrammata a piacimento ed è utilizzata per memorizzare le caratteristiche di
adattamento
impostate
dall’audioprotesista.
3
La potenza di calcolo e la flessibilità dei DSP consente il loro impiego per un vasto intervallo di
applicazioni (industriali e telecomunicazioni).
4
I protocolli di adattamento protesico consentono di programmare la memoria ROM in un corpo
di istruzioni a partire dai dati audiometrici, dall’accoppiamento acustico, dalle caratteristiche
acustiche ambientali, dalle preferenze individuali di ascolto. In tal modo la protesi utilizza le
istruzioni per aggiustare in modo dinamico la sua operatività, per esempio massimizzando il
riconoscimento del parlato e la qualità dei suoni in differenti condizioni di rumorosità.
5
Oggi esistono convertitori D/D cioè il convertitore è all’interno del ricevitore: ciò riduce la
distorsione e limita gli spazi. Ridurre la distorsione significa eliminare una potenziale fonte di
rumore.
- 10 -
Tutti i sistemi di elaborazioni digitali richiedono, inoltre, un clock per cadenzare
le operazioni del DSP.
In più c’è da dire che le protesi acustiche sono dotate di DSP ad “architettura
aperta”6 (Ricci M., 2004; Marzulli F. et al., 2004) che consentono un’elaborazione
del segnale d’ingresso, alla protesi, tale da garantire l’amplificazione necessaria e
di evitare, al tempo stesso, le degradazioni del contenuto informativo del
messaggio vocale. I
primi modelli disponevano di circuiti DSP denominati
“piattaforme chiuse”, nel senso che gli stessi DSP venivano sviluppati con
caratteristiche idonee all’algoritmo secondo il quale avrebbero dovuto funzionare.
Le protesi digitali possono non presentare le stesse caratteristiche sia funzionali
che circuitali ( dispositivi incorporati, software di gestione e loro funzionalità )
anche se una prima prerogativa comune è quella di aumentare il rapporto
voce/rumore e cioè migliorare l’intellegibilità7 della parola in ambienti rumorosi.
Dalla qualità di questo fattore dipenderà la comprensione del paziente, essenziale
in una società di comunicazione. Se da un punto di vista tecnologico la protesi
digitale ha migliorato la qualità del segnale acustico in uscita, dall’altro ha
introdotto diversi parametri di programmazione che richiedono una buona
preparazione dell’audioprotesista per adattarli alla perdita acustica del paziente.
1.2
SISTEMI DI OTTIMIZZAZIONE DEL SEGNALE
1.2.1 Riduzione Digitale dell’Effetto Larsen (Digital Feedback Reduction
“DFR”):
Uno dei problemi costantemente riscontrati dai portatori di apparecchi
acustici è il feedback acustico noto anche come effetto Larsen. Questo può essere
descritto come la percezione di un «fischio», uno «stridio», un «tintinnio», un
«ronzio» e una «vibrazione». In realtà l’effetto Larsen consiste in questo: quando
6
Nel 1997 vennero sviluppati dei circuiti DSP denominati “piattaforme aperte”, ovvero dei circuiti
destinati ad una più larga diffusione poiché in grado di funzionare con diversi algoritmi. Questi
DSP si sono evoluti fino ad arrivare ad una generazione di processori sempre più veloci e potenti,
capaci di effettuare con estrema rapidità i calcoli più laboriosi. Questa potenzialità ha consentito di
sviluppare algoritmi sempre più complessi in grado di gestire un numero sempre crescente di
parametri ad una velocità sempre maggiore.
7
Uno dei primi sintomi di perdita uditiva è una ridotta intelligibilità della voce in ambienti
rumorosi.
- 11 -
il suono amplificato ritorna all’ingresso del sistema, viene nuovamente
amplificato e si crea una sorta di “anello sonoro” ( loop ) che si ripete. Se il ciclo
di dispersione, captazione e amplificazione si ripete continuamente il sistema
diventa instabile dando luogo a delle oscillazioni. L’instabilità e le oscillazioni si
traducono in un forte fischio che non è solo sgradevole, ma anche dannoso.
Il feedback acustico si verifica quando un microfono è troppo vicino
all'altoparlante che emette i suoni captati con sufficiente "potenza di innesco" dal
microfono stesso che li rimanda al medesimo altoparlante, come in un circuito
chiuso. L’origine del feedback acustico può essere dovuto anche dalla presenza di
superfici riflettenti, dispersioni intorno alla chiocciola o ancora da ventilazioni
eccessive.
Per la riduzione del feedback, sistemi più raffinati effettuano il monitoraggio
mentre l’apparecchio acustico è in operazione. Il feedback è ridotto o eliminato
attraverso sistemi di cancellazione o filtraggio.
Il DFR può essere utile nel caso in cui l’effetto Larsen si avverte occasionalmente
con il movimento mandibolare.
Il sistema antifeedback ad inversione di fase si basa sul principio dell’inversione
di fase, secondo il quale un’onda sonora viene cancellata per mezzo della
sovrapposizione della stessa onda sfasata di 180° ( Fig. 5).
Fig. 5: Principio dell’Invertitore di fase del feedback. Il segnale di feedback ( rosso ) e il segnale a
inversione di fase ( verde ) si annullano reciprocamente eliminando il feedback senza
perdita di guadagno ( da PHONAK – BIONICA DIGITALE ).
- 12 -
1.2.2 Riduzione Digitale del Rumore (Digital Noise Reduction “DNR”):
Una precisa localizzazione comporta che sia l’intellegebilità che la qualità
sonora naturale del parlato risultano migliorati quando la sua posizione spaziale
viene percepita separatamente rispetto alle sorgenti di rumore ( Plomp, 1976).
Questo algoritmo consente la riduzione del guadagno sia nelle basse frequenze sia
nelle specifiche frequenze quando è avvertito uno stato del segnale stabile
( rumore ). In molte situazioni della vita reale le sorgenti di rumore sono separate
spazialmente e spettralmente, il DNR permette la soppressione selettiva di queste
sorgenti ( Fig. 6 ).
Fig. 6: Soppressione selettiva delle sorgenti di rumorose. In questo modo la più forte fonte di rumore viene
per la maggior parte rimossa e contemporaneamente il segnale di parlato frontale viene amplificato
( da PHONAK – BIONICA DIGITALE ).
Il sistema effettua un’attenuazione del rumore ad alta risoluzione e controlla il
rumore del vento.
Per vie generali i sistemi di attenuazione del rumore si affidano ad algoritmi che
svolgono una “sottrazione spettrale” e una “cancellazione della fase” mediante
DSP. Il principio di base della “sottrazione spettrale”8 è quello di identificare le
8
Questo approccio di base richiede un’accurata stima della composizione spettrale del rumore. Se
le frequenze caratteristiche vengono riconosciute attraverso un banco di filtri inverso è possibile
rimuovere solo quelle frequenze non utile presenti nel segnale. Ovviamente i filtri rimuoveranno
non solo le componenti frequenziali del rumore ma anche parte dell’energia presente del parlato
quando il rumore avrà un’estensione frequenziale abbastanza ampia da rientrare in quelle
frequenze proprie del parlato. La banda di frequenza del parlato è compresa tra 200 Hz e 5000 Hz
e una maggiore concentrazione di informazioni la otteniamo approssimativamente nell’intervallo
1000 Hz – 3000 Hz. Se il rumore concomitante ha una banda ristretta ( es. meno di un’ottava ),
filtrando questa parte di spettro (rumore), allora le informazioni del parlato saranno comunque
sufficienti al riconoscimento del messaggio verbale. Diversamente invece, se la banda del rumore
è più estesa in frequenza il banco di filtri rimuoverà anche parte del parlato.
- 13 -
frequenze caratteristiche del rumore, nel segnale entrante, per poi sottrarlo dallo
spettro del parlato ( segnale utile ).
La “cancellazione della fase” è indirizzato ad un approccio più sofisticato che si
avvale di quell’effetto matematico che se una forma d’onda è uguale e invertita di
180° in fase e sommata alla forma d’onda originale il suono è annullato
completamente. La Fig. 7 mostra quest’effetto:
Fig. 7: Principio dell’Inversione di fase (da OTICON – Intelligenza Artificiale ).
Controllo del Rumore del Vento:
Il rumore del vento ha una caratteristica a bassa frequenza (quindi copertura delle
alte frequenze), può raggiungere livelli di pressione sonora molto alti, è dinamico
e dipende dalla direzione e dalla velocità del vento.
Il rumore del vento, negli apparecchi acustici, può dar luogo a effetti di
mascheramento e saturazione dei microfoni e quindi, nel caso in cui il rumore
raggiunge alti livelli, può provocare come reazione la RIDUZIONE DEL
GUADAGNO.
Il “controllo del rumore del vento” svolge una duplice funzione:
1.
Protezione meccanica à attenua le turbolenze prima che raggiungano i
microfoni
2.
Eliminazione elettronica à in base all’analisi del segnale d’ingresso, il
rumore viene rilevato elettronicamente e tutte le componenti dovute a
tale rumore vengono eliminate dal segnale.
Queste funzionalità permettono, agli apparecchi acustici digitali, di mantenere le
impostazioni direzionali dei microfoni anche in ambienti ventosi e quindi
- 14 -
migliorare al contempo il rapporto VOCE/RUMORE ( migliore distinzione tra
rumore e segnali di parlato ).
Cosa importante, l’attenuazione totale applicata è minore quando è presente la
voce che non quando nel segnale è presente solo rumore. Inoltre, quando è
presente la voce, l’attenuazione del rumore viene conformata all’Indice di
Articolazione Pesato9, così da assicurare la preservazione di informazioni verbali
di rilievo.
Ciò consente alla protesi acustica digitale di interpretare e di reagire meglio alle
modificazioni dell’ambiente di ascolto poiché sussiste un’analisi continua
dell’ambiente circostante al fine di fornire il grado ottimale di attenuazione in
qualsiasi ambiente di ascolto complesso.
1.2.3 Riduzione Digitale del Riverbero (Digital EchoBlock “DEB”):
L’eco è un fenomeno che ritroviamo molto spesso nelle diverse situazioni
d’ascolto in quanto esso è provocato dalla riflessione dei suoni da parte di pareti,
soffitto o finestre, che creano copie ritardate, dallo spettro leggermente modificato
e attenuate del segnale sorgente originale. Ciò comporta una limitazione e un
peggioramento, ulteriore, nell’intellegibilità del parlato ( sia nelle situazioni
tranquille che in quelle rumorose ).
Il riverbero causa scarsa intelligibilità nel parlato perché se c’è riverbero alle
orecchie dell’ascoltatore arriva una sovrapposizione del suono diretto dalla
sorgente più delle riflessioni ( del segnale stesso, Fig. 8 ) con un risultato finale
di un segnale “temporalmente disperso” rispetto al segnale originale. Il riverbero è
caratterizzata dal “tempo di riverberazione” che indica la “lunghezza temporale di
presenza delle riflessioni” ( cioè per quanto tempo c’è riverbero e quindi da
quando iniziano le riflessioni e quando si esauriscono ) e i cui valori tipici vanno
9
Fa riferimento alla valutazione dell’intellegibilità della parola. Le ricerche e i numerosi metodi
che sono stati elaborati e proposti per il calcolo dell’intellegibilità del parlato hanno come scopo
quello di fornire un mezzo attendibile di previsione delle caratteristiche acustiche dell’auditorio da
realizzare ( cioè dei vari ambienti o scenari uditivi ). Tale previsione si basa sul calcolo e prende in
considerazione l’intensità del segnale, rumore di fondo, riverberazione e modalità di riflessione
sonora per consentire la valutazione di qualità sonora nei diversi ambienti e definire in tal modo un
Indice di Articolazione ( globale e pesato ). In altre parole l’Indice di Articolazione valuta
l’importanza delle frequenze nel parlato: frequenze gravi o molto acute hanno importanza diversa
nelle diverse lingue (Maurizio Clerici, 2004).
- 15 -
da circa 0,4 secondi negli uffici e nelle piccole aule, a oltre 2 secondi nelle sale di
concerto e nelle chiese. Con il riverbero si verifica l’appiattimento temporale del
messaggio sonoro ed in aggiunta se il tempo di riverbero è molto lungo si avrà
una copertura del messaggio primario.
Fig. 8: Riverberazione: sovrapposizione del suono diretto dalla sorgente e delle riflessioni
( da PHONAK – BIONICA DIGITALE ).
Utilizzando particolari algoritmi, le protesi digitali riconoscono il riverbero e lo
attenuano efficacemente:
Fig. 9: Funzionamento del sistema di soppressione del riverbero ( da PHONAK – BIONICA
DIGITALE ).
1.2.4 Enfatizzazione Digitale del Parlato (Digital Speech Enhancement
“DSE”):
L’attuale sistema d’elaborazione DSE 10 identifica ed enfatizza il parlato
basandosi sul contenuto temporale e spettrale del segnale.
10
L’impiego del DSP ha migliorato la comprensione del parlato nel rumore poiché gli algoritmi
implementati si focalizzano sull’identificazione delle caratteristiche spettrali del parlato
- 16 -
L’elaborazione digitale del segnale può essere diretta a modificare i rapporti di
energia acustica rilevata in corrispondenza di vocali e consonanti, o
nell’enfatizzazione di contrasti spettrali manipolando la larghezza di banda delle
formanti, “spectral enhancement11”, nel tentativo di imitare il sistema uditivo
umano. Questo può essere realizzato usando un banco di filtri per dividere il
segnale audio in una serie di canali a bande frequenziali diverse.
Lo Spectral Enhancement consente, in altre parole, di aumentare il rapporto
energetico fra il picco e la valle delle formanti aumentandone il contrasto e
riducendo il rumore presente nella zona di minima energia. In realtà il
riconoscimento del messaggio verbale avviene attraverso l’indice di modulazione.
L’indice di modulazione è dato dalla distanza che intercorre tra il picco e la valle
presenti in un oscillogramma del parlato ( Fig. 10a ), ovvero misura l’ampiezza in
dB della funzione risultante ( Fig. 10b ). Questa strategia consente, quindi, di
ridurre l’effetto mascherante dovuto all’amplificazione dello spettro adiacente le
formanti (Tempasta Ruggero, 2003; Gianluca Vivarelli, 2003).
Fig. 10a: Grafico di un oscillogramma del
parlato.
Fig. 10b: Indice di Modulazione: in questo caso
l’ampiezza del messaggio verbale è maggiore
dell’ampiezza del rumore, questa differenza permette
al sistema digitale di distinguere il rumore dal parlato
riducendo l’ampiezza del rumore nelle bande da esso
interessate.
enfatizzando queste ultime a scapito di quelle del rumore che in effetti sono inutili alla
comprensione. Il DSP lavora sulle formanti vocaliche e cioè quando una vocale è presente viene
riconosciuta e l’algoritmo ne aumenta il contrasto dei picchi positivi e negativi ( Lyzenga, Festen
& Houtgast, 2002 ). Un secondo metodo, invece, è quello di identificare le frequenze
caratteristiche delle consonanti e amplificarle al di sopra dello spettro. Altro approccio è quello di
identificare il discorso in uno sfondo di rumore, sintetizzarlo e ricostruirlo.
11
La ridotta risoluzione in frequenza e la loudness alterata, caratterizzano, molto spesso, l’ipoacusia
neurosensoriale. Mentre la loudness può essere corretta attraverso strategie di amplificazione con
compressione o limitazione d’uscita, la ridotta risoluzione in frequenza implica un diverso trattamento del
segnale. L’effetto del mascheramento dovuto alla scarsa selettività in frequenza può essere ridotto attraverso
un’amplificazione spettrale mirata.
- 17 -
Con l’introduzione della tecnologia digitale si è giunti ad un altissimo sviluppo
tecnologico, ma è divenuto sempre più evidente che esistono altri fattori che
influenzano il fitting protesico Altra variabile predittiva di resa protesica
(introdotta dal prof. Gatehouse, 2003) tiene conto delle condizioni d’ascolto,
l’ambiente sonoro nel quale l’ipoacusico si trova con maggiore frequenza e
rispetto al quale sono rivolte le sue aspettative di miglioramento uditivo con la
protesi acustica. In altre parole per un buona personalizzazione (fitting protesico)
bisogna ed è necessario conoscere l’ “ecologia uditiva”(luoghi di maggior
frequenza dell’ipoacusico ) del paziente.
Attualmente le protesi prevedono quattro situazioni reali ( Fig. 11 ):
1.
Ambiente tranquillo (voce nel silenzio): per assicurare una comprensione
ottimale del parlato attraverso un’ampia gamma di livelli di ingresso.
2.
Parlato nel rumore: per regolare il grado di attenuazione del rumore canalespecifica in conformità con l’Indice di Articolazione Pesato, in maniera da assicurare la
preservazione della comprensione del parlato.
3.
Solo rumore: per fornire attenuazione massima in ciascun canale quando nel segnale
sia presente soltanto rumore, al fine di garantire il massimo livello di comfort.
4.
Musica: per normalizzare la qualità sonora musicale evitando distorsioni. Il programma
“musica” è ancora in fase di sperimentazione e la ricerca attuale è indirizzata a sfruttare il
principio dell’ MP3.
Fig. 11: L’ immagine mostra che le situazioni quotidiane possono essere raggruppate in 4
categorie, comprendenti tutte le situazioni d’ ascolto. In ognuna delle quattro categorie di base il
sistema acustico deve soddisfare le relative aspettative uditive (da PHONAK - BIONICA DIGITALE).
- 18 -
CAPITOLO
II
I MICROFONI
2.1
Microfoni Direzionali e DSP
Alcune protesi acustiche presentano due aperture per
l’ingresso dei suoni (una anteriore e una posteriore, come
vedremo in seguito - §2.5 pag. 23) ( Fig. 12a e 12b:
Microfono Direzionale in BTE e ITE ): in questo caso si
parla di microfono direzionale. Poiché l’apertura frontale
Fig. 12a.
ha una suscettibilità maggiore in dB rispetto a quella
posteriore, si crea un ritardo temporale tra i suoni provenienti
frontalmente e quelli che giungono da dietro, con conseguente miglioramento
della localizzazione dei suoni stessi e della loro discriminazione.
Con l’avvento dell’elettronica digitale è stato possibile migliorare il rapporto
voce/rumore e in qualche caso, la combinazione del DSP con il
microfono direzionale può ulteriormente migliorare questo
rapporto. Alcuni modelli d’apparecchio acustico digitale
utilizzano
il DSP per calibrare il microfono, controllare la
sensibilità direzionale e automaticamente commutare dal modo
direzionale a quello omnidirezionale.
Fig. 12b.
Migliorare i microfoni implica un miglioramento della localizzazione del suono
che comporta a sua volta una intelligibilità ( qualità ) del segnale percepito.
La nostra capacità di localizzazione dei segnali è basata su indicatori acustici
( perché ogni segnale ha una sua frequenza e una sua intensità ) come “differenze
interaurali temporali e d’intensità” ( ITD e ILD o IID ) e “componenti della forma
spettrale” generati dal padiglione auricolare.
Un suono che arriva dal lato sinistro della testa giunge all’orecchio sinistro prima
che all’orecchio destro, questa “differenza di tempo” è chiamata ITD12 ovvero
Differenza di Tempo Interaurale la quale oscilla da 0 ( per un suono
12
La ITD è più importante per le basse frequenze.
- 19 -
proveniente frontalmente alla testa ) a circa 650 microsecondi ( per un suono
proveniente a 90° ). In aggiunta, il livello sonoro sarà meno sentito all’orecchio
destro a causa dell’effetto ombra della testa. Le frequenze oltre i 1500 Hz hanno
una
lunghezza
d’onda
minore
rispetto
al
diametro
della
testa
( quest’ultimo si assume pari a 16 – 18 cm nell’adulto ) e per questo sono
notevolmente attenuate. La Differenza d’Intensità Interaurale o IID13 è la
differenza in intensità percepita da un orecchio rispetto a quella percepita
dall’altro orecchio in relazione alla stessa stimolazione acustica; ovviamente
risulta che i suoni sono più intensi per l’orecchio più vicino alla fonte. Mentre le
differenze interaurali temporali e d’intensità forniscono informazioni sull’angolo
orizzontale ( o anche piano azimutale ) della sorgente sonora ( Fig. 13a ), il
cambiamento dei segnali provocato dal padiglione auricolare è soprattutto
importante per la localizzazione verticale ( piano d’elevazione ) e per la
discriminazione fronte/retro ( Blazer, 1997 ) ( Fig. 13b ).
Fig. 13a : La ITD e la IID forniscono informazioni
sul piano azimutale.
Fig. 13b : Alcuni suoni raggiungono l’orecchio
entrando direttamente dal C.U.E. ed altri suoni
solo successivamente alle riflessioni dovute ad una
o più pieghe della conca auricolare.
Chi indossa apparecchi acustici ha un’attenuazione della funzionalità del
padiglione
(
il
padiglione
auricolare
svolge
un’importante
funzione
sull’informazione spettrale e in particolar modo favorisce la direttività delle alte
frequenze ) e quindi una compromissione delle prestazioni di localizzazione.
Localizzazione peggiore rispetto a chi non indossa l’apparecchio e ciò vale sia per
13
IID è massimo per 90 gradi e –90 gradi, mentre è nullo per 0 gradi e 180 gradi; la IID è più
importante per le frequenze alte.
- 20 -
la direzione orizzontale ( Orton e Preves, 1979 ) che per quella verticale ( Nobile
e Birne, 1990 ).
Il peggioramento delle prestazioni di localizzazione è dovuto alla posizione,
innaturale, dei microfoni che vengono a collocarsi sopra l’orecchio e perciò non
recepiscono i cambiamenti del segnale provocati dal padiglione auricolare, questo
comporta confusioni fronte/retro per cui ad esempio un suono a 30° è percepito
sia in intensità che nel tempo alla stessa maniera di un suono a 150° ( Fig. 14 ).
Fig. 14: CONO DI CONFUSIONE: la percezione nel tempo e in intensità risulta identica cioè ITD è uguale a IID,
ciò comporta che ad esempio un suono a 30° è percepito sia in intensità che nel tempo alla stessa maniera
di un suono a 150°.
Oggi le protesi digitali sono dotate di dispositivi che simulano gli effetti
( picchi spettrali ) provocati dal padiglione auricolare e ciò significa maggiore
soddisfazione da parte del pz/cliente ( Fig. 15 ).
Fig. 15 : Il contributo fisiologico dato dal padiglione auricolare viene compromesso per la posizione
innaturale dei microfoni: attualmente con gli apparecchi acustici digitali si tenta di ottimizzare il
suono quanto più reale possibile mediante sistemi sofisticati di trattamento del segnale
( da PHONAK – BIONICA DIGITALE ).
- 21 -
2.2
Tecnologie a Confronto
Essendo i microfoni il primo elemento della protesi acustica la loro scelta è
fondamentale ai fini del risultato, tanto quanto il loro posizionamento.
I microfoni sono trasduttori in grado di trasformare energia acustica in energia
elettrica, in particolare le variazioni della pressione atmosferica vengono
convertite
in
variazioni
di
tensione
e
dunque
in
corrente
( segnale elettrico/corrente elettrica e per questo sono anche detti trasduttori
elettroacustici ). Le tecnologie con cui vengono realizzati i microfoni sono diverse
e questo ci permette di avere a disposizione una vasta gamma di soluzioni a
seconda del contesto in cui ci troviamo a operare. Vi sono microfoni più o meno
sensibili, con diverse direzionalità, senza poi contare che ogni microfono ha un
suo proprio timbro personale che lo caratterizza e che lo rende a suo modo unico.
A causa delle differenze costruttive, i microfoni hanno una loro caratteristica
risposta sonora e quindi queste differenze producono risposte non uniformi per
quanto riguarda la fase e la frequenza.
Inoltre i microfoni non hanno la stessa sensibilità a diversi livelli di pressione e
quindi possono ricevere diversi livelli sonori prima di distorcere. Anche se per
applicazioni scientifiche lo scopo è avere una risposta quanto più uniforme
possibile, non sempre è così e ciò potrebbe comportare delle problematiche perché
il microfono può colorare, esaltare in maniera interessante ad esempio la voce, per
non parlare poi di eventuali disturbi esterni.
La risposta in frequenza dà un’idea di che modifiche il microfono apporta all’onda
sonora misurata.
- 22 -
2.2.1 Tipologie di Microfoni
Come già accennato i microfoni sono dei trasduttori elettroacustici e in
base a come avviene questa trasduzione, i microfoni si possono dividere in diverse
classi: microfoni elettromagnetici, microfoni ceramici, microfoni a condensatore
o electret (elettretici permanenti).
Microfoni elettromagnetici:
sono più resistenti ed economici, reggono
maggiormente gli alti volumi, presentando però una maggiore inerzia al
movimento dovuta a motivi costruttivi (la pesantezza di membrana e
l’avvolgimento), quindi non rendono i transienti come i condensatori.
Nei microfoni elettromagnetici le onde provocano la vibrazione di un sottile
diaframma metallico il quale provoca a sua volta la vibrazione di una bobina ad
esso collegata e immersa in un campo magnetico generato da un magnete fisso.
Tale movimento della bobina crea delle correnti elettriche che riproducono il
comportamento delle onde sonore di partenza.
I microfoni elettromagnetici hanno una scarsa fedeltà, una risposta in banda
passante limitata e poco lineare, grossi consumi di energia ma sono resistenti e
scarsamente sensibili agli agenti atmosferici.
Microfono ceramici: Questo tipo di microfono sfrutta la proprietà di certi
elementi ceramici di sviluppare un campo elettrico se sottoposti ad una
compressione.
I microfoni ceramici sono stati abbandonati perché, anche se hanno un’ottima
fedeltà di riproduzione e una discreta banda passante, i materiali utilizzati nella
costruzione di questi microfoni oltre ad essere delicati, sensibili agli urti, alle alte
intensità, sono anche sensibili al calore e all’umidità ossia cambiano le
caratteristiche in funzione delle condizioni ambientali ed inoltre presentano una
rapida tendenza all'invecchiamento; in aggiunta, considerando la posizione della
protesi questi difetti ne pregiudicano l’utilizzo.
- 23 -
Microfoni a condensatore ( electret ) ( Fig. 16 ): Questo tipo di microfono
(detto anche elettrostatico) possiede al suo interno un condensatore. Una delle due
piastre del condensatore è il diaframma del microfono e vibra in accordo
( in risposta ) con l'onda acustica incidente (il diaframma è mobile ).
Tra le 2 armature di un condensatore si produce un potenziale elettrico
( il potenziale elettrico prodotto dipende dal voltaggio della sorgente, dall'area
dell'armatura e dalla loro distanza ) applicando un basso voltaggio per mezzo di
una sorgente (batteria), che può essere interna o esterna al microfono stesso
( nel nostro caso esterna ).
La vibrazione della piastra produce la variazione della distanza tra le due piastre
variando così il valore della capacità. Questo implica una variazione della
tensione ai capi delle piastre con un conseguente passaggio di corrente: la corrente
prodotta è però tanto debole da dover essere amplificata in uno stadio
immediatamente successivo e quindi preamplificata prima di arrivare al circuito
dell’apparecchio acustico14. I microfoni a condensatore sono molto più accurati
dei microfoni elettromagnetici in quanto il diaframma può essere realizzato con
materiali molto leggeri e di dimensioni ridotte ( sottile ) e dunque può risultare
molto sensibile anche alle frequenze più alte ( buona riproduzione delle alte
frequenze ). Si può danneggiare se sottoposto al pressioni sonore molto elevate.
La vibrazione della membrana dovuta dalla pressione sonora provoca fenomeni
di depolarizzazione e la generazione di un’onda elettrica per cui si determina un
potenziale. Se abbiamo un’ onda acustica, quindi una compressione e una
rarefazione dell’area, la membrana avrà una introflessione e una estroflessione a
seconda se è in fase di compressione o in fase di rarefazione per cui si avvicina e
si allontana. Questa oscillazione genera un segnale elettrico sinusoidale
assolutamente uguale per frequenza al segnale acustico ma attenuato in intensità
( Fig. 17 ).
14
Il segnale elettrico in uscita è proporzionale come tensione, alle vibrazioni del diaframma e
quindi alla pressione dell’onda incidente: il rapporto tra tensione d’uscita e la pressione si chiama
sensibilità del microfono ed ha un valore compreso tra i 10 e i 50 mV/Pa.
- 24 -
Fig. 16: Rappresentazione grafica di un microfono electret. Il microfono a condensatore può essere
rappresentato alla stessa maniera ma non presenta cariche negative e positive perché è
alimentato da una batteria.
I vantaggi di questo sistema, sono: 1) non richiedere energia cioè non ha bisogno
di corrente per funzionare visto che avendo delle cariche sue per struttura fisica
non necessita di alcuna alimentazione ( Fig. 15 ); 2) avere una banda passante
estremamente ampia e lineare ciò significa che la risposta del microfono è
perfettamente uguale a tutte le frequenze ( Fig. 16 ):
Fig. 17: Ingresso microfono 60 dB; Uscita microfono 6 dBV (questo segnale viene preamplificato), da
notare la linearità di questi sistemi.
- 25 -
Questi microfoni sono di qualità sicuramente superiore rispetto ai microfoni
elettromagnetici e ceramici perchè hanno una maggiore sensibilità, una risposta in
frequenza più lineare ed estesa (consentendo una risposta lineare anche in
corrispondenza delle basse frequenze) e un rumore di fondo bassissimo. Queste
qualità ne limitano anche l'impiego: sono adatti a riprendere solo strumenti che
non hanno transitori troppo potenti e risultano ideali per le voci.
2.3
Caratteristiche fondamentali di un microfono
Nel paragrafo precedente abbiamo presentato i vari tipi di microfoni da cui
si evince che una delle caratteristiche principali è data dal principio di trasduzione.
In realtà le principali caratteristiche che definiscono le prestazioni di un microfono
sono:
·
Risposta in frequenza: cioè il modo di variare della sensibilità in
funzione della frequenza dell’onda sonora.
·
Sensibilità:
è il rapporto fra ampiezza del segnale elettrico uscente
( tensione d’uscita ) dal microfono e ampiezza del segnale acustico
( pressione acustica del campo sonoro ), è un'espressione del rendimento
del microfono ( indica quindi la capacità del microfono di convertire la
pressione acustica in tensione di uscita ). Viene di solito espressa in
mV/Pa o anche dBV/Pa e non necessariamente questo parametro è un
indicatore di qualità. La sensibilità di microfono è inversamente
proporzionale alla rigidezza del diaframma la quale è dovuta alla tensione
meccanica del diaframma stesso. La rigidezza dipende anche dal volume
della cavità interna del microfono e dalla pressione statica al suo interno.
Per minimizzare l’influenza della pressione statica sulla sensibilità del
microfono è necessario avere un volume interno più grande quando il
diaframma è meno rigido e viceversa. In pratica si riscontra che la
sensibilità decresce al diminuire del diametro del microfono stesso, mentre
la gamma utile in frequenza aumenta. E’ chiaro quindi che l’uso di un
microfono che abbia una banda passante molto ampia, paga il prezzo in
termini di sensibilità e viceversa.
- 26 -
·
Rumore interno ( o di fondo ): è generato dai componenti elettrici
all'interno del microfono in assenza di pressione acustica. Sicuramente la
circuiteria presente nei microfoni a condensatore è maggiore di quella
all'interno dei microfoni elettromagnetici dunque l'incidenza del rumore
termico è maggiore nei primi anche in virtù del fatto che il segnale
generato ha intensità molto minore rispetto ai microfoni elettromagnetici.
La risposta del microfono rispetto al rumore interno viene misurata in dBV
e un valore pari a 100 dBV è considerato accettabile.
Parametro caratteristico del microfono e dello stadio di preamplificazione.
·
Massimo livello di pressione sonora misurabile: valore oltre il quale si
ha l’insorgere di distorsione o danni irreversibili al microfono.
·
Campo dinamico: è costituito dalla differenza tra il massimo livello di
pressione sonora misurabile ed il livello equivalente del rumore di fondo.
·
Caratteristica di direttività: un fattore importantissimo da considerare è
la direzionalità del microfono, cioè la variazione nel suono che produce a
seconda della direzione da cui esso proviene.
La direzionalità esprime la capacità del microfono di captare più o meno
bene i segnali in base alla direzione di provenienza, cioè il modo di variare
della sensibilità con l’angolo di incidenza del fronte d’onda:
• I microfoni non direzionali, o omnidirezionali o ancora panoramici,
come il nome stesso suggerisce, rispondono in modo equivalente ai suoni
provenienti da qualsiasi direzione.
• I microfoni direzionali, captano solo i suoni che provengono da
determinate direzioni ( rinforzano nella maggior parte dei casi i suoni che
provengono frontalmente in funzione dell’angolo di provenienza dei suoni
stessi), evitando così il fastidioso feedback ( in quanto non capteranno
niente proveniente direttamente da eventuali casse/monitor posteriori o
laterali ).
Riuscire a scegliere un microfono adatto per tutti i tipi di misura è praticamente
impossibile: avere una buona sensibilità va a scapito di una buona risposta in
frequenza e viceversa.
Esistono comunque dei microfoni di utilità generale che riescono ad avere dei
compromessi fra i vari fattori.
- 27 -
2.4
Diagrammi Polari
I diversi criteri di costruzione dei microfoni possono essere impiegati per
ottenere caratteristiche direzionali diverse. Sono infatti state messe a punto una
serie di metodologie di costruzione che permettono di focalizzare la sensibilità di
un microfono verso una o più direzioni specifiche. L'andamento della sensibilità a
seconda della direzione di provenienza del suono viene descritto da un grafico
denominato diagramma polare.
Nella figura seguente vengono riportati i diagrammi polari più comuni con la loro
denominazione, il centro rappresenta il microfono con il suo diaframma mentre
attorno a questo viene riportato il valore della sensibilità al variare della direzione.
La direzione viene misurata in gradi: 0° è il punto esattamente di fronte al
diaframma mentre 180° indica la posizione opposta, cioè dietro al microfono.
Ogni corona concentrica, a partire dalla più esterna, indica una perdita di 3 dB.
Utilizzando i Diagrammi Polari è possibile effettuare una classificazione in
funzione del campo sonoro captato:
Circolare/Ominidirezionale: il microfono è egualmente
sensibile in tutte le direzioni dello spazio. Un suono viene
riprodotto con la stessa accuratezza da qualsiasi direzione
provenga.
Cardioide: il nome deriva dalla linea a forma di cuore del
diagramma. In questo caso i suoni provenienti da sono
drasticamente attenuati. Una nota riguardo i cardioidi: se la
sorgente sonora è ravvicinata, essi enfatizzeranno le basse
frequenze.
Bidirezionale (Figura a 8): in questo caso il microfono è in
grado di captare al meglio i suoni provenienti sia da dietro
- 28 -
che davanti ma risulta poco sensibile ai suoni provenienti dalle direzioni laterali.
Supercardioide: è simile al cardioide ma con caratteristiche di
direzionalità accentuate. Tuttavia per stringere il diagramma
anteriore bisogna accettare l'insorgenza di un piccolo lobo
posteriore. Ciò implica un leggero aumento della sensibilità ai
suoni provenienti da dietro.
Ipercardioide: Come il supercardioide ma con caratteristiche
di direzionalità ancora più accentuate.
Nelle protesi digitali attuali è possibile, agendo su particolari parametri, regolare e
selezionare il tipo di microfono in funzione delle caratteristiche di uso del
paziente.
2.5
Sistemi Direzionali
Esistono quattro approcci ( alternative ) di base per la costruzione di un
sistema direzionale applicabile agli apparecchi acustici:
1)
un microfono direzionale;
2)
una microfono direzionale + un microfono omnidirezionale;
3)
due microfoni omnidirezionali;
4)
un array ( ordine/insieme ) di microfoni.
Anche se il primo approccio abbia il vantaggio di essere il più semplice e il meno
ingombrante, non si dovrebbe considerare in quanto non dà la possibilità di
commutare nella maniera omnidirezionale.
Infatti, una delle ragioni principali di perchè microfoni direzionali non hanno
ottenuto una grossa popolarità in passato ( quando questi microfoni avevano
- 29 -
dimensioni ben più grandi rispetto alla tecnologia attuale ) era proprio per la
mancanza di una maniera omnidirezionale ( quest’ultima in determinate situazioni
è la scelta più appropriata ).
Un insieme ( array ) di microfoni è un sistema estremamente direzionale e può
realizzare un
miglioramento nel rapporto segnale/rumore (SNR) di 12 dB
( However ). Inizialmente tali sistemi potevano essere montati esclusivamente in
un apparato indossato al collo ( Fig. 18 ) o ancora nelle astine delle protesi ad
occhiale ove c’era molto più spazio per la componentistica ( Fig. 19 ).
Fig. 18: Array di microfoni apparato
apparato da indossare al collo.
Fig. 19: Astina di una protesi ad occhiale.
Inoltre per la maggior parte degli individui, con perdita uditiva, la scelta e
l’utilizzo di questi sistemi non era di fondamentale importanza se l’estetica era
scarsa.
Questo lascia i due approcci più comuni:
omnidirezionale più direzionale (un termine coniato da Steve Thompson) e un
sistema che utilizza 2 microfoni omnidirezionali.
L'approccio omnidirezionale più direzionale ( Fig. 20 ) offre la possibilità di
commutare e quindi scegliere il microfono da utilizzare, attivando l’uno o l’altro,
in funzione dello scenario uditivo, ovviamente attivare uno dei due microfoni
significa disattivare l’altro ( un solo microfono è in operazione ).
Fig. 20: Sistema Omnidirezionale più Direzionale; la commutazione avviene manualmente.
- 30 -
L’utilizzo di 2 microfoni omnidirezionali ( Fig. 21 ) offrono la stessa possibilità di
un sistema “ominidirezionale più direzionale”, ma con qualche vantaggio
distintivo in più ( Thompson ), in quanto mediante un circuito elettronico che
tratta i segnali, provenienti dai 2 microfoni omnidirezionali, si ottengono diversi
patterns direzionali.
Fig. 21: L’ uscita di 2 microfoni omnidirezionali, combinati elettricamente ed elettronicamente,
rendono la caratteristica direzionale desiderata.
Microfono Omnidirezionale: La Fig. 22 mostra un microfono omnidirezionale
tipico. Il suono che entra provoca cambi di pressione nella camera anteriore e
interna del microfono. Questi cambi di
pressione causano la vibrazione del
diaframma e quest’ultima produce un segnale elettrico analogico all’uscita del
microfono. Questo segnale è poi trattato da un circuito elettronico.
Poiché il segnale sonoro entrante può comprendere anche il rumore, per attenuarlo
vengono, generalmente, utilizzati i microfoni direzionali ( Fig. 23 ).
- 31 -
Fig. 22: Microfono Omnidirezionale ( adattato da Thompson ).
Infatti i microfoni direzionali agiscono come dei “sistemi di ritardo acustico”
( o delay network ): una volta entrato il suono, proveniente dalla direzione
posteriore del microfono, incontra un sistema di ritardo che convoglia il suono in
una serie di percorsi alternativi ritardandone l’arrivo al diaframma ( Fig. 24 ).
Quando il suono ritardato giunge al diaframma, è invertito di fase rispetto al
suono che, grazie alla diffrazione, è arrivato sulla parte anteriore del microfono.
Questa situazione si traduce nell'annullamento dei due suoni, quello anteriore e
quello posteriore ritardato che arriva in controfase. Dunque il suono posteriore
viene eliminato o drasticamente attenuato.
Fig. 23: Il Microfono Direzionale presenta 2 ingressi ( 2 aperture per l’entrata del suono ).
Lo stesso sistema di ritardo agisce sul suono frontale: una parte di quest'ultimo va
a sollecitare direttamente il diaframma, un'altra parte penetra nell’apertura
posteriore e dopo il passaggio nel sistema di ritardo si presenta in fase al
diaframma. Questo fa sì che i due segnali si sommino garantendo una
riproduzione fedele del segnale frontale che viene in questo modo rinforzato.
- 32 -
Fig. 24: Propagazione dell’onda e sua interazione con il microfono direzionale.
L'effetto di un microfono direzionale può essere replicato con due microfoni
omnidirezionali sostituendo il ritardo meccanico, proprio dei sistemi direzionali,
con un filtro elettronico che agisce sul microfono omnidirezionale posteriore
( Fig. 25):
Fig. 25: Interazione di 2 microfoni omnidirezionali ( sistema multi-microfono direzionale ).
Se il ritardo temporale elettronico del filtro coincide perfettamente con il ritardo
dell’entrata del suono nel microfono anteriore i due segnali possono essere
sottratti, perché in opposizione di fase, e quindi annullati.
In entrambi i casi il sistema di ritardo interno è studiato in modo tale da far
coincidere questo ritardo ( quello interno ) con il tempo d’arrivo dell'altra
porzione di segnale in funzione della distanza delle 2 aperture ( la distanza tra le
aperture è indicata come ritardo di tempo esterno ).
Il rapporto tra il ritardo di tempo interno e il ritardo di tempo esterno viene
definito Beta.
Se Beta è uguale a 1 otteniamo un microfono CARDIOIDE ( così chiamato per la
sua forma - Fig. 26 ).
Variando uno dei due ritardi il rapporto
cambia ed è possibile modificare le
caratteristiche
del
microfono.
Per
esempio, riducendo il ritardo di tempo
- 33 Fig. 26: Risposta Cardioide con ß = 1.
interno ( è il solo che può essere cambiato in quanto il ritardo di tempo esterno è
dato dalla distanza delle aperture dei microfoni che è quella di costruzione ) si
ottiene un microfono Supercardioide ( Fig. 27 ).
La Fig. 27, come appena detto, mostra
un modello di Supercardioide e si
osserva chiaramente
che i suoni
maggiormente attenuati sono quelli che
provengono da un angolo compreso tra
90° e 270°. Inoltre, come più tentiamo
di restringere la forma cardioide più
Fig.27: Risposta Supercardioide con ß = 0,58 :
i suoni provenienti da 125° e 235° sono
maggiormente attenuati.
notiamo
l'insorgenza
di
un lobo
posteriore. Ciò è dovuto al fatto che il
sistema di ritardo non è in grado di cancellare correttamente suoni che
provengono da una direzione con un angolo troppo piccolo rispetto alla direzione
centrale.
per Beta ≠ 1 ( Fig. 27 ) il segnale analizzato dipende sia dal ritardo esterno sia da
quello interno; nel caso in cui Beta è tendente a zero il segnale dipende
esclusivamente dal ritardo esterno e si ha la realizzazione del microfono
Supercardioide.
Utilizzando due microfoni ominidirezionali si ottiene una maggiore flessibilità,
infatti dato l’accoppiamento di due microfoni è possibile variare il fattore Beta e
ottenere, contrariamente ad un microfono direzionale dove il fattore Beta è
predeterminato dal costruttore, le diverse modalità di acquisizione.
La modalità omnidirezionale in presenza di un segnale sonoro in ingresso di bassa
intensità si dimostra la migliore in quanto il rumore da attenuare non è molto. In
questa modalità, il segnale proveniente dai due microfoni omnidirezionali viene
intensificato addizionando i segnali. Ciò riduce efficacemente il rumore nel
microfono di circa 3 dB, fornendo l’ottimizzazione del segnale in presenza di
bassi livelli di intensità sonora del segnale in ingresso.
- 34 -
Tutti i sistemi direzionali, nonostante le implementazioni, subiscono degli “effetti
collaterali” che portano ad attenuare le basse frequenze ( la spiegazione di tali
effetti collaterali è complessa e va oltre lo scopo di questa tesi ).
La perdita di sensibilità alle basse frequenze è peggiore nei microfoni che hanno,
ovviamente, una distanza ridotta tra le aperture perché le basse frequenze
presentano una lunghezza d’onda maggiore rispetto alle alte frequenze.
La Fig. 28 mostra la risposta in frequenza di 2 sistemi differenti, uno con le
aperture distanziate di 4 mm e l’altro con le aperture distanziate di 12 mm.
Confrontando le risposte dei 2 sistemi si nota una riduzione di sensibilità di circa
10 dB a 500 Hz per il sistema che ha le aperture distanziate di 4 mm riducendo,
così, significativamente il rapporto S/N.
Fig. 28.
Sfruttando la possibilità di agire sul fattore Beta è possibile regolarlo per
migliorare il rapporto segnale/rumore.
2.6
Direzionalità Adattiva Multibanda
Questi sistemi direzionali sono dei microfoni adattativi che funzionano
con algoritmi sconosciuti e che riescono a modificarsi a seconda dei contesti.
Quelli di ultima generazione sono eccezionali, lavorano in maniera diversa sulle
varie bande e per le varie frequenze e a seconda della banda possono essere
OMIDIREZIONALI su una banda e IPERCARDIODI su un’altra, CARDIODI sulla
seguente e BIDIREZIONALI su un’altra ancora. Tutto ciò avviene a seconda della
gamma frequenziale presente nell’ambiente o meglio fanno un’analisi spettrale
ON-LINE
dell’ambiente e decidono banda per banda qual è la configurazione
- 35 -
migliore del microfono per migliorare ed ottimizzare la percezione verbale del
paziente.
Parliamo della Direzionalità Adattiva Multibanda15 ( Fig. 29 ) che si avvale
dell’uso di microfoni direzionali grazie ai quali si riesce a migliorare la
comprensione del parlato nel rumore ( Walden, Surr & Cord, 2003 ). I microfoni
direzionali attenuano il segnale proveniente dai lati e/o dalle spalle del portatore di
protesi, conservando invece l’udibilità dei segnali percepiti di fronte. L’assunto
sotteso a ciò è che l’utente si troverà probabilmente di fronte alla persona con la
quale sta parlando e desidererà quindi udire preferibilmente quel segnale rispetto
al segnale proveniente da altri interlocutori o dal rumore di fondo. Grazie a questo
metodo, il miglioramento del rapporto voce/rumore è stato stimato ai 3-4 dB,
quando segnale vocale e rumore vengono presentati in modi rappresentativi degli
ambienti di ascolto tipici del mondo reale ( Alani, 2001; Wouters, Liniere & van
Wieringen, 1999 ).
Con la Direzionalità Adattiva16, l’apparecchio acustico decide automaticamente se
selezionare una risposta omnidirezionale o direzionale, mediante il rilevamento
dell’angolo di provenienza della sorgente di rumore predominante, e modificare
automaticamente il diagramma polare così da fornire la massima attenuazione per
quel dato suono ( Valente e Mispagel, 2004 ).
15
Questo sistema è stato considerato uno tra le 20 creazioni più importanti del 2005 per migliorare
la qualità della vita dell’uomo.
16
La Direzionalità Adattiva ha lo scopo di consentire risposte polari adattive separate in ciascuna
delle bande di frequenza esistenti ( Elko & Nguyen Pong, 1997, Massima Direzionalità ). Ciò
consente ad esempio l’impiego della Modalità Omnidirezionale, soltanto nella banda di frequenza
più bassa
( al di sotto dei 1000 Hz ) e il mantenimento delle altre bande indipendenti, di
frequenza medio-alta, in cui è ripartita la direzionalità.
- 36 -
Fig. 29: Con la direzionalità adattativa il diagramma polare è continuamente aggiustato : per ogni canale di
frequenza viene calcolato e attivato in pochi millisecondi il diagramma polare ottimale, ciò permette
l'adattamento direzionale più favorevole per l'ambiente acustico ( da PHONAK – BIONICA
DIGITALE ).
2.7
Come Valutare la Qualità di un Microfono
Esistono molti metodi per misurare la prestazione di un microfono
direzionale:
·
Rapporto Fronte-Retro: differenza ( in dB ) tra la sensibilità di un
microfono a suoni provenienti a 180° e la sensibilità, dello stesso
microfono, a suoni provenienti a 0°.
·
Indice di direttività ( DI ): differenza ( in dB ) tra la sensibilità del
microfono a i suoni provenienti direttamente dalla parte anteriore cioè a 0°
e la sua sensibilità a suoni provenienti da tutte le direzioni.
·
Delta I: rapporto tra la sensibilità di un microfono a suoni provenienti
frontalmente in un angolo compreso tra 270° e 90° e la sua sensibilità a
suoni provenienti posteriormente compresi in un angolo tra 90° e 270° .
·
AI/DI ( Indice di articolazione/Indice di Direttività ): media ponderata
della comprensione del discorso in funzione della sensibilità del
microfono.
·
Diagrammi polari di direzionalità.
Ogni metodo può essere utilizzato misurando l’apparecchio acustico in campo
libero o su di un manichino.
È utile comprendere che gli apparecchi acustici attuano ogni elaborazione alla
periferia, a monte della coclea, e quindi ogni decisione eminentemente centrale,
quale, ad esempio prediligere soggettivamente l’ascolto e la comprensione di una
voce rispetto o a scapito di un’altra, è preclusa17.
Quindi non esiste “IL MICROFONO”, ma esistono una serie di sistemi che
andrebbero adattati.
17
L’apparecchio non può “ricostruire” il segnale che la coclea distorce, può elaborarlo al fine di
renderlo il più facile possibile da riconoscere, nonostante il degrado imposto dalla patologia.
In questa logica quello che l’apparecchio cerca di fare è di “eliminare” continuamente tutti i
segnali che in quel particolare momento non sono segnali vocali così che quello vocale arrivi “da
solo” alla coclea, che comunque lo degraderà.
- 37 -
CAPITOLO
III
SPERIMENTALE
3.1
Descrizione del sistema
(Binaural Recording Head Manikin and Measuring Microphones – MK1 CORTEX
INSTRUMENTS ).
- 38 -
Per la sperimentazione è stato utilizzato un sistema formato da un
manichino che riproduce le sembianze del busto di un corpo umano medio
( Fig. 30a ) e da un computer gestito da un software (VIPER) ( Fig. 30b ) che
consente sia l’acquisizione dei segnali sonori sia l’elaborazione e l’estrazione di
numerosi parametri psicoacustici che permettono di determinare la qualità del
suono.
Fig. 30b.
Fig. 30a.
La figura 30a mostra in maniera schematica la struttura del sistema.
Il manichino riproduce abbastanza fedelmente le caratteristiche della parte
superiore del corpo umano. In particolare la testa, i padiglioni auricolari, il collo e
le spalle. Tale manichino consente di inclinare la testa rispetto al busto e l’intero
busto rispetto al piano.
Nelle due orecchie in sostituzione della membrana timpanica sono situati due
microfoni di precisione da ½ di pollice che simulano l’orecchio medio ed interno.
Il manichino è alimentato sia con batterie che tramite rete. Inoltre è possibile
tramite un telecomando controllare le funzionalità previste per l’acquisizione a
distanza. Il manichino poggia su di un supporto che contiene sia il sistema di
polarizzazione dei microfoni sia l’elettronica di amplificazione dei segnali. Inoltre
nella base è contenuto un DAT per la registrazione dei segnali, in questa maniera
è possibile fare delle acquisizioni prescindendo dal computer.
I segnali possono essere acquisiti da un computer mediante un opportuno software
denominato VIPER. Questo consente sia di acquisire che di elaborare i segnali
sonori provenienti dal manichino.
- 39 -
3.1.1 Il VIPER comprende i moduli:
1.
Sound Analysis Package VIPER BA:
Questo modulo permette di registrare e riprodurre i segnali sonori;
eseguire la determinazione dei livelli sonori e l’analisi spettrale (terzi di
ottave ed FFT); filtraggio del segnale; analisi tonale.
2.
PerceptualXplorer VIPER PX:
Con questo modulo è possibile analizzare e modificare le componenti
tonali del segnale mediante un editor ed inoltre risintetizzare i segnali
sonori modificati.
3.
Psychoacoustics Analysis VIPER PSY:
Il modulo permette di determinare alcuni dei principali parametric
psicoacustici legati alla percezione del suono quali : loudness, sharpness,
roughness, fluctuation strength, tonality.
4.
Sound Editor and Filter Software VIPER ED:
È un editor sonoro evoluto che permette di effettuare numerose
trasformazioni del segnale nel tempo quali : cut, copy, paste, delete, trim,
fade-in/fade-out, change level, hearing-based play back, sample rate
converter, import/export of sound files etc. permette di implementare
numerosi tipi di filtri numerici. Inoltre permette di eseguire delle
trasformazioni del segnale direttamente sullo spettrogramma permettendo
di modificare parti del sonogramma. I segnali così modificati possono
essere riprodotti.
5.
Speech Quality-Analysis VIPER SQ:
Questo modulo agendo sullo spettrogramma permette di valutare indici
quali l’Auditory Distance Spectrogram che permettono di quantificare la
qualità del parlato. E’ possibile la taratura dell’intera catena di
acquisizione mediante dei calibratori.
3.2
FFT (Fast Fourier Transform)
Per descrivere in maniera non ambigua un segnale sonoro i parametri,
ampiezza e frequenza, non sono sufficienti.
- 40 -
Nel XVIII secolo il matematico francese Fourier elaborò un modello matematico
noto appunto come Analisi di Fourier.
Tale metodo si basa su principio generale che ogni onda periodica complessa può
essere scomposta e analizzata come una serie di onde periodiche semplici.
Queste componenti semplici dell’onda periodica complessa vengono dette
armoniche del segnale complesso,e il loro insieme è chiamato spettro. Un
postulato molto importante dell’analisi di Fourier è che le frequenze delle
armoniche sono i multipli interi della frequenza del segnale complesso. La
frequenza della prima armonica, che per definizione è uguale a quella del segnale
complesso,è chiamata frequenza fondamentale (F0 ).
La base della FFT , allora, è il fatto che ogni segnale può essere scomposto in una
serie di sinusoidi, ciascuna delle quali possiede una ben determinata frequenza,
ampiezza
e
fase
(teorema
di
Fourier).
Bisogna notare che la trasformata di Fourier non è l'unica esistente. Esistono altre
trasformate in grado di scomporre un segnale in una serie di componenti dello
stesso tipo. Quella di Walsh, per esempio, scompone un segnale in una serie di
onde quadre e presenta dei vantaggi dal punto di vista della sintesi (le onde quadre
sono molto più facili da generare rispetto alle sinusoidi). La trasformata di
Fourier, però, evidenzia alcune caratteristiche interessanti:
·
Gli elementi base della scomposizione (le sinusoidi) sono onde
prive di armonici. Possono quindi essere considerate come "i mattoni"
mediante la cui somma si crea un suono complesso.
·
In effetti, questa proprietà è verificabile in quanto, sommando le
suddette sinusoidi, si ottiene il suono di partenza.
·
È vero che la stessa cosa accadrebbe anche sommando le onde
generate da una qualsiasi altra trasformata, ma la scomposizione basata
su Fourier ha una maggiore evidenza percettiva. È più molto facile farsi
una immagine di un suono come somma di elementi percettivamente
semplici, come le sinusoidi, rispetto alla somma di elementi complessi.
Con la FFT, quindi, possiamo analizzare lo spettro di un suono e vedere
le sue componenti, siano esse armoniche o meno, passando dalla visione
della forma d'onda, con il tempo sull'asse X, alla visione in frequenza
- 41 -
(frequenze sull'asse X). Proprio per questo è corretto dire che, con la
FFT, si passa dal dominio del tempo a quello della frequenza.
Il principale parametro di controllo della FFT è la sua risoluzione che è
determinata dal numero di campioni (detti "punti") su cui viene
effettuata. Come vedete nella figura seguente, le componenti (o parziali)
della nota di pianoforte di cui sopra sono via via più evidenti con
l'aumentare del numero di punti. Naturalmente un maggior numero di
punti significa anche un maggior tempo di calcolo.
Si ha, quindi, un passaggio dal dominio del tempo a quello delle
frequenze. Come tale, però, la FFT è una analisi istantanea che vale
solamente in quel punto del suono. Dato che il suono è in evoluzione,
potete considerare una singola FFT come un fotogramma di un film.
Dal punto di vista matematico la FFT è un procedimento che esprime
una funzione come somma di sinusoidi.
Dal punto di vista acustico può benissimo essere vista come un più
semplice e comprensibile banco di filtri che suddivide l'intero spazio
delle frequenze da 0 a SR/2 in tante bande quanti sono i punti diviso.
Una FFT a 1024 punti, quindi, equivale a suddividere il campo
frequenziale in 512 bande. Si può quindi considerare la FFT come un
sistema che misura l'energia contenuta in ognuna di queste bande. Se,
per es., si lavora con 2048 punti, è come se si dividesse l'intero spazio
- 42 -
frequenziale fra 0 e SR/2 in 2048 / 2 = 1024 parti. Di conseguenza, con
SR = 44100, ogni banda sarebbe larga mediamente circa 22050 / 1024 =
21.53 Hz.
Vedendo la cosa in questo modo, si capisce anche perché la risoluzione
in frequenza aumenta con il numero dei punti e quindi anche perché,
nella figura qui sopra, con 256 punti non si isolano le componenti. 22050
/ 128 = circa 172 Hz, che è troppo per isolare delle singole sinusoidi. La
situazione migliora con 512 punti (risoluzione circa 86 Hz), è buona con
2048 (ris. circa 22 Hz) e ottima con 16384 punti (ris. circa 2.69 Hz).
La seconda cosa da ricordare è che, come già detto, l'analisi è istantanea e vale,
cioè, solo per l'istante in cui è stata effettuata. Il punto di analisi è quello mediano
rispetto al segmento analizzato. Se abbiamo un suono con SR = 44100 e facciamo
una analisi su 4096 punti che a 44100 corrispondono quasi a 1/10 di sec., l'istante
a cui l'analisi si riferisce è il centro di quei 4096 campioni. Prima e dopo, il suono
potrebbe essere diverso. È quindi errato fare una analisi e pensare "in questo
suono troviamo queste componenti". Il concetto esatto è "in questo suono, in
questo istante, troviamo queste componenti".
In effetti, il segmento su cui si fa l'analisi viene dapprima isolato e poi
moltiplicato per un inviluppo a forma di campana (con il massimo al centro) e
trasformato come nella figura a fianco. Questo per evitare che il troncamento alle
estremità influenzi il risultato. L'effetto della finestra è quello di dare un peso
maggiore al centro del segmento e mostrare lo spettro con maggiore pulizia.
Esistono vari tipi di finestre (Hamming, Blackmann, etc) che si differenziano per
la pendenza e la forma dei lati, il cui effetto su frequenza e ampiezza è ridotto, ma
è più evidente sulla fase delle componenti risultanti, quindi per il momento lo
- 43 -
possiamo ignorare. Normalmente si usano finestre di Hamming o Blackmann.
3.3
Sonogramma e Spettrogramma
Ora il nostro problema è: se la FFT è istantanea, come si può creare una
mappa
completa
dell'evoluzione
di
un
suono
nel
tempo?
La risposta è semplice: per poter ottenere una tale mappa, occorre fare una serie di
singole analisi a intervalli regolari per tutta la durata dell'evento sonoro.
Otteniamo così un sonogramma ( Fig. 31a ) in cui abbiamo il tempo sull'asse X, le
frequenze sull'asse Y e ogni componente è rappresentata da una linea che si
estende nel tempo, il cui colore è tanto più forte quanto è maggiore l'ampiezza.
Poiché la rappresentazione è sul piano, mentre le dimensioni da rappresentare
sono 3 (frequenze, tempo e ampiezza), per la terza si deve ricorrere al colore. Lo
schema dei colori può essere diverso, ma l'importante è che sia in grado di
evidenziare le differenze di ampiezza creando con lo sfondo un contrasto tanto
maggiore quanto più l'ampiezza è elevata.
Fig. 31a.
Fig. 31b.
Con lo stesso procedimento si può ottenere uno spettrogramma ( Fig.
31b
).
Si tratta di una rappresentazione 3D in cui abbiamo ancora le frequenze sull'asse
X, il tempo sull'asse Y, mentre le ampiezze sono rappresentate come altezze
sull'asse Z. In tal modo è possibile distinguere chiaramente anche l'inviluppo dei
singoli armonici. Ovviamente in quest'ultimo caso la colorazione è accessoria e
- 44 -
non del tutto necessaria, però. se è sensata, aiuta, così come aiuta il fatto che lo
spettrogramma possa essere ruotato e studiato da diverse prospettive.
Nel caso del sonogramma, dobbiamo anche tener conto della velocità con cui il
suono cambia nel tempo. I suoni emessi dagli strumenti musicali variano
abbastanza lentamente e con una certa gradualità, tranne che nel momento
dell'attacco in cui possono esserci anche variazioni molto veloci (i cosiddetti
"transitori" o "transienti"). In natura, però, possiamo trovare anche suoni che, nel
corso della loro vita, esibiscono variazioni molto complesse e veloci. In tal caso, a
volte, la ricerca di una maggiore risoluzione in frequenza, aumentando il numero
dei punti e quindi la lunghezza del segmento su cui si fa l'analisi, può contrastare
con la visione di variazioni temporali troppo veloci. La risoluzione in frequenza
contrasta con la risoluzione temporale.
Ragioniamo: se ho un suono campionato a 44100 e la mia finestra di analisi è
lunga 16384 punti, essa dura 16384 / 44100 = 0.37 secondi, il che significa che
ogni variazione che dura meno ha buone probabilità di risultare malamente
definita in senso temporale. La cosa è mitigata solo dal fatto che, nella serie di
analisi per creare il sonogramma, le finestre delle varie analisi vengono
parzialmente sovrapposte. Comunque, in questi casi, una FFT con pochi punti
seguirà meglio il fenomeno rispetto a una con più punti, anche se quest'ultima
produce risultati più definiti in frequenza.
3.4
Protesi acustica utilizzata nei test
La protesi acustica utilizzata durante i test è la Destiny
400 Dir BTE ( Fig. 32 ), dotata di 4 canali e 8 bande, 4
memorie programmabili, una bobina ad induzione ed un
rilevatore della direzionalità del parlato. Il Destiny™ 400
è dotato di un elaboratore di segnale con circuito ad
Fig. 32
architettura aperta caratterizzato dalla potenza intuitiva
della tecnologia nFUSION. Questo innovativo sistema di
- 45 -
monitoraggio, della Casa Starkey, sostituisce la commutazione
meccanica con la nanotecnologia, capace di attivare automaticamente
le caratteristiche fornendo un’esperienza acustica molto più naturale.
3.4.1 Funzionalità standard del Destiny 400 Dir
1.
L’Active Feedback Intercept (AFI – Rilevamento attivo
Feedback):
Un
sistema di eliminazione del feedback che utilizza 16
sottobande.
2.
L’Environmental Adaptation:
E’ un sistema avanzato con soppressione di rumore che
automaticamente controlla e classifica le diverse tipologie di
rumori ambientali.
3.
Directional Speech Detector (DSD – Rilevatore direzionale
del parlato):
Offre indici di direzionalità best-in-class e funziona fornendo
una risposta dinamica superiore anche negli ambienti più
problematici. Tale sistema migliora la comprensione del parlato
nel rumore in quanto il sistema direzionale dinamico garantisce
che l’apparecchio sia sempre nella modalità di ascolto ottimale
senza la necessità di regolazioni manuali.
4.
Acoustic Signatur (Rilevatore ambientale):
È un sistema intuitivo che effettua un’ Analisi Spettrale OnLine
dei diversi ambienti affinché venga configurata la risposta
migliore per fornire un comfort d’ascolto ottimale ( gestione del
guadagno).
5. Autocoil:
La Bobina telefonica programmabile
telefonica
offre una risposta
automatica o, a scelta, attivabile tramite pulsante.
3.4.2 Caratteristiche elettroacustiche del Destiny™ 400 Dir
- 46 -
a. Guadagno di picco: 70 DB
b. Picco OSPL : 90 DB
c. Gamma di FREQUENZA: 200 Hz ÷ 6400 Hz
d. Distorsione Armonica Totale: a 500 Hz THD% è 3%; a 800 Hz THD%
1%; a 1600 Hz THD% 1%;
e. Rumore ingresso equivalente: <25 DB
f. Tempo di attacco: <50 ms - Tempo di rilascio z200 ms (modo Test)
Tali caratteristiche corrispondono alle Normative ANSI S3.22.
3.5
Acquisizione e Analisi dei Dati
Le prove sono state svolte in una stanza di circa 10 m2, posizionando il
manichino ( MK1 ) al centro della stessa come in Fig. 33a e 33b, gli altoparlanti
disponibili erano 4 ed erano collocati nell’ambiente secondo queste angolazioni:
0°, 60°, 180°, 300° ( 0° è il punto frontale al manichino e si fissano le altre
angolazioni procedendo in senso antiorario – vedi immagini ).
Fig. 33a: Altoparlante a 0°;
Altoparlante a 300°.
Fig. 33b: Manichino a centro stanza
e altoparlante a 180°.
Queste prove sono state effettuate per verificare l’efficacia del Sistema
Direzionale,
effettuando un confronto tra la Modalità Omnidirezionale e la
Modalità Direzionale, inviando materiale verbale bisillabico ( parole inviate:
molti, stanza, grande, giallo, lire ) ad una intensità pari a 15 dB HTL.
Il test è stato effettuato nell’audiometria sperimentale dell’Unità di Audiologia
dell’Università Federico II di Napoli.
- 47 -
3.5.1 Acquisizione dei segnali provenienti da diverse angolazioni
La protesi acustica Destiny 400 è stata applicata all’orecchio destro
( canale 2 del manichino; l’orecchio sinistro dello stesso, o anche canale 1, è
mantenuto libero per determinarne il diagramma polare
) e si è proceduto
alla registrazione audio ( acquisizione ) nel modo seguente ( Fig. 34 ):
Con Protesi configurata in Modalità DIREZIONALE
1.
Prova Microfono
0° Segnale 35 dB, senza rumore
2.
Prova Microfono 30° Segnale 35 dB, senza rumore
3.
Prova Microfono 60° Segnale 35 dB, senza rumore
4.
Prova Microfono 90° Segnale 35 dB, senza rumore
5.
Prova Microfono 120° Segnale 35 dB, senza rumore
6.
Prova Microfono 150° Segnale 35 dB, senza rumore
7.
Prova Microfono 180° Segnale 35 dB, senza rumore
8.
Prova Microfono 210° Segnale 35 dB, senza rumore
9.
Prova Microfono 240° Segnale 35 dB, senza rumore
10. Prova Microfono 270° Segnale 35 dB, senza rumore
11. Prova Microfono 300° Segnale 35 dB, senza rumore
12. Prova Microfono 330° Segnale 35 dB, senza rumore
Con Protesi configurata in Modalità OMNIDIREZIONALE
1.
Prova Microfono
0° Segnale 35 dB, senza rumore
2.
Prova Microfono 30° Segnale 35 dB, senza rumore
3.
Prova Microfono 60° Segnale 35 dB, senza rumore
4.
Prova Microfono 90° Segnale 35 dB, senza rumore
5.
Prova Microfono 120° Segnale 35 dB, senza rumore
6.
Prova Microfono 150° Segnale 35 dB, senza rumore
7.
Prova Microfono 180° Segnale 35 dB, senza rumore
8.
Prova Microfono 210° Segnale 35 dB, senza rumore
9.
Prova Microfono 240° Segnale 35 dB, senza rumore
- 48 -
10. Prova Microfono 270° Segnale 35 dB, senza rumore
11. Prova Microfono 300° Segnale 35 dB, senza rumore
12. Prova Microfono 330° Segnale 35 dB, senza rumore
Fig. 34
3.5.2 Analisi e Verifica dei Dati
Il programma utilizzato per la verifica dei dati è il VIPER di cui il modulo
“Sound Analysis Package VIPER BA”, per la determinazione dei livelli sonori e
l’analisi spettrale (FFT) del segnale audio (Fig. 36a, Fig. 36b, Fig. 36c) .
Di seguito diamo una rappresentazione grafica, così come da programma
(VIPER), delle acquisizioni effettuate con le quali è stato possibile costruire i
Diagrammi Polari dell’orecchio senza protesi, della protesi in modalità
omnidirezionale e della protesi in modalità direzionale.
- 49 -
Fig. 36a: Le immagini sono riferite all’acquisizione
del segnale a 0° senza protesi.
Fig. 36b: Le immagini sono riferite all’acquisizione
del segnale a 0°con protesi in modalità
omnidirezionale.
Fig. 36c: Le immagini sono riferite all’acquisizione del segnale a 0° con protesi in modalità direzionale.
Dai grafici sono stati ricavati i massimi livelli di picco ( in dB ) e più in
particolare abbiamo tenuto conto del picco massimo raggiunto dalla seconda
parola presentata ( STANZA ) durante il test.
Possiamo scrivere quanto segue:
Con Protesi configurata in Modalità Direzionale
1.
0° = 50 dB
2.
30° = 50 dB
3.
60° = 50 dB (± 2)
- 50 -
4.
90° = 47 dB
5.
120° = 35 dB
6.
150° = 41 dB
7.
180° = 47 dB
8.
210° = 41 dB
9.
240° = 35 dB
10. 270° = 47 dB
11. 300° = 50 dB (± 2)
12. 330° = 50 dB
Con Protesi configurata in Modalità Omnidirezionale
1.
0° = 50 dB
2.
30° = 50 dB
3.
60° = 50 dB
4.
90° = 50 dB
5.
120° = 50 dB
6.
150° = 50 dB
7.
180° = 50 dB
8.
210° = 50 dB
9.
240° = 50 dB
10. 270° = 50 dB
11. 300° = 50 dB
12. 330° = 50 dB (tutte le angolazioni hanno uno scarto medio di ± 3 dB)
Orecchio senza Protesi
1.
0° = 35 dB
2.
30° = 35 dB
3.
60° = 35 dB
4.
90° = 35 dB
5.
120° = 35 dB
- 51 -
6.
150° = 35 dB
7.
180° = 35 dB
8.
210° = 35 dB
9.
240° = 35 dB
10. 270° = 35 dB
11. 300° = 35 dB
12. 330° = 35 dB (tutte le angolazioni hanno uno scarto medio di ± 1 dB)
3.5.3 Valutazioni Finali
·
RAPPORTO FRONTE ( 0° )/ RETRO ( 180° ) - MICR. DIREZ. :
50 – 47 = 3 dB
Questa differenza sta a significare che il segnale posteriore è attenuato di
½ rispetto al segnale frontale e ciò vuol dire che i segnali posteriori sono
abbattuti al fine di migliorare la conversazione frontale.
·
INDICE DI DIRETTIVITA’ - MICR. DIREZ :
0° - 30° = 50 – 50 = 0 dB
0° - 60° = 50 – 50 = 0 dB
0° - 90° = 50 – 47 = 3 dB
0° - 120° = 50 – 35 = 15 dB
0° - 150° = 50 – 41 = 9 dB
0° - 180° = 50 – 47 = 3 dB
0° - 210° = 50 – 41 = 9 dB
0° - 240° = 50 – 35 = 15 dB
0° - 270° = 50 – 47 = 3 dB
0° - 300° = 50 – 50 = 0 dB
0° - 330° = 50 – 50 = 0 dB
- 52 -
Valutare l’Indice di Direttiva vuol dire capire come la caratteristica
direzionale si comporta nelle diverse direzione rispetto alla posizione
frontale. Ci dà un’idea dell’attenuazione a seconda dell’angolazione.
·
DIAGRAMMI POLARI
Per la costruzione del Diagramma Polare si riporta ogni singolo valore
trovato, e corrispondente ad una precisa direzione ( angolazione ), su un
grafico ( formato da cerchi concentrici ) che rappresenta il campo sonoro
dell’ambiente in questione ( Fig. 37 ), otteniamo quanto segue:
Fig. 37: Diagrammi Polari ricavati dalle prove.
- 53 -
CONCLUSIONI
In base alle indagini ed alle misurazioni effettuate è possibile concludere che il
sistema direzionale, oggetto del nostro studio, ha una caratteristica Supercardioide
e non è utilizzato per simulare il campo sonoro dell’orecchio umano.
Dal diagramma polare, infatti, si evidenzia che è il sistema Omnidirezionale ad
avere un andamento similare dell’orecchio umano e quindi la risposta direzionale
è quella che può ottimizzare l’acquisizione del segnale dalla parte anteriore del
soggetto migliorando così il rapporto voce/rumore.
In questo modo si privilegia la conversazione frontale del soggetto protesizzato
rispetto a quella posteriore, fonte competitiva al segnale principale.
In definitiva, sia i sistemi Direzionali che quelli convenzionali Omnidirezionali
risultano essere tecnologie valide che devono essere sfruttate in funzione dello
“scenario acustico”. Tuttavia è raccomandabile l’utilizzo di sistemi Direzionali in
quegli ambienti di ascolto difficili dove si avverte la necessità di capire un
discorso in presenza di rumore, viceversa un sistema Omnidirezionale risulta
essere il più adatto in ambienti silenziosi in quanto si riduce il rumore del circuito.
- 54 -
Bibliografia
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
BIONICA DIGITALE PHONAK: com028-0084xxbackgroundstory_savia
RIVISTA TECNICO-SCIENTIFICA L’AUDIOPROTESISTA Speciale
Congresso pag. 74, Autore: Marco Ricci-EuroSonit srl; rivista T.S.
RIVISTA L’AUDIOPROTESISTA anno II-n.4-luglio 2004 pag. 37 Digital Signal Processing -DSP- “architettura aperta”, Autore: Francesco
Marzulli Dipartimento Elettrotecnica ed Elettronica-Politecnico di Bari,
Mario Refice Dipartimento di Psicologia Università di Bari, Michelina
Savino e Fabrizio Zito Dipartimento di Oftalmologia e ORL Università di
Bari.
L’Adattamento degli Apparecchi Acustici 2a Edizione – OTICON
“Capitolo 9: La Compressione pag.1”, Autori: ing. Umberto Cotrona –
Prof. Walter Livi.
RIVISTA TECNICO- SCIENTIFICA L’AUDIOPROTESISTA anno IIn.4-Luglio 2004 pag. 28, - L’ESPANSIONE Autore: Lorenzo Notarianni
Audioprotesista.
“NEWS FROM OTICON APRILE 2003” - Noise Reduction in Hearing
Aids: What Works and Why - CANCELLAZIONE SPETTRALE (Donald J. Schum, Ph.D. - Vice President, Audiology & Professio
Relations Oticon, Inc..).
RIVISTA TECNICO- SCIENTIFICA L’AUDIOPROTESISTA anno IIn.5-dicembre2004INDICE DI ARTICOLAZOINE, Autore : Maurizio
Clerici, 2004.
RIVISTA TECNICO- SCIENTIFICA L’AUDIOPROTESISTA speciale
Congresso Sorrento -INDICE DI MODULAZIONE Spectral Enhacement,
Autore: Tempasta Ruggero, 2003; Gianluca Vivarelli, 2003.
RIVISTA TECNICO- SCIENTIFICA L’AUDIOPROTESISTA anno In.2-ottobre 2003 Variabile predittiva di resa protesi: introdotta dal prof.
Gatehouse, 2003.
NEWS FROM OTICON: Maximising the Voice to Noise Ratio (VNR)
through Voice Priority Processing (Mark C. Flynn, PhD Oticon A/S, Denmar).
Valente M, Sweetow R & May A: Using microphone technology to
improve speech recognition. In S Kochkin & KE Strom’s High
Performance Hearing Solutions (V3), Suppl to Hearing Review; 6 (1): 1013.
Thompson S: Dual Microphones or directional-plus-omni: Which is best?
In S Kochkin & KE Strom’s High Performance Hearing Solutions (V3),
Suppl to Hearing Review; 6 (1): 31-35.
Killion MC: The SIN report: Circuits haven’t solved the hearing-in-noise
problem. Hear Jour 1997; 50 (10): 28-34.
- 55 -
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
May A: Multi-Microphone Instruments, DSP and Hearing-in-Noise.
Hearing Review 1998; 5 (7): 42-45.
Preves D: Directional microphone use in ITE hearing instruments. Hearing
Review 1997; 4 (7): 21-27.
Multiple omnidirectional microphone cartridges as directional
microphones:
“Application of Multiple Microphones in Hearing Aids”, Knowles
Electronics
Application Note, S-911-0897.
Thompson, S., “Directional Patterns Obtained from Dual Microphones”,
Knowles Electronics Engineering Report, October 1997 Fixed directional
microphones:
Bauer, B., “Microphone Directivity”, Transactions of the IRE-PGA, July
1952,10-20.
Valente, M., Hearing Aids: Standards, Options, and Limitations, 1996,
142-144
Madaffari, P., “Directional Matrix Technical Report”, Knowles Electronics
Engineering Report, 1983 Directivity Index:
Bauer, B., “Microphone Directivity”, Transactions of the IRE-PGA, July
1952,10-20.
Articulation-Index Weighted Directivity-Index:
Roberts., M. & Schulein, R., “Measurement and Intelligibility
Optimization of Directional Microphones for Use in Hearing Aid
Devices”, 103rd AES
Convention, 1997 Real-world performance and measurement:
Preeves, D., “Directional Microphone Use in ITE Hearing Instruments”,
The Hearing Review, July 1997, 21-27.
Killion, M., et. al., “Real-World Performance of an ITE Directional
Microphone”, The Hearing Journal, April 1998.
Agnew J, Block M. HINT thresholds for a dual-microphone BTE. Hear
Rev 1997;4:26–30.
Amlani AM. Efficacy of directional microphone hearing aids: a metaanalytic perspective. J Am Acad Audiol 2001;12:202–14.
Bilsen F, Soede W, Berkhout AJ. Development and assessment of two
fixed-array microphones for use with hearing aids. J Rehabil Res Dev
1993;30:73–81.
Gennum Corp. Directional hearing aid tutorial (CD-ROM). Burlington:
Gennum Corp.; 2000 – www.gennum.com.
Gravel JS, Fausel N, Liskow C, Chobot J. Children’s speech recognition in
noise using omni-directional and dual-microphone hearing aid technology,
Ear Hear 1999;20:1–11.
Hoffman MW, Trine TD, Buckley KM, Van Tasell DJ. Robust adaptative
microphone array processing for hearing aids: realistic speech
enhancement. J Acoust Soc Am 1994;96:759–70.
Killion M. SNR loss: I can hear what people say, but I can’t understand
them. Hear Rev 1997;4.
Killion M, Schulein R, Christensen L, Fabry D, Revit L, Niquette P,
Chung K. Real-world performance of an ITE directional microphone. Hear
J 1998;51:24–38.
- 56 -
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
Kompis M, Dillier N. Noise reduction for hearing aids: combining
directional microphones with an adaptive beamformer. J Acoust Soc Am
1994;96:1910–3.
Kuhn GF. Some effects of microphone location, signal bandwidth, and
incident wave field on the hearing aid input signal. In: Studebaker GA,
Hochberg I. Acoustical factors affecting hearing aid performance.
Kühnel V, Margolf-Hackl S, Kiessling J. Multi-microphone technology for
severe-to-profound hearing loss. Scand Audiol Suppl 2001;30 Supp
52:65–8.
Kuk F, Baekgaar L, Ludvigsen C. Design considerations in directional
microphones. Available at:
www.hearingreview.com/Articles.ASP?articleid=H0009F06
(Page consulted in January 2001).
Kuk FK, Kollofski C, Brown S, Melum A, Rosenthal A. Use of a digital
hearing aid with directional microphones in school-aged children. J Am
Acad Audiol 1999;10:535–48.
Labonté MP. Les effets de directivité des microphones à effet d’annulation
des aides de correction auditive sur la reconnaissance de la parole en classe
[project report]. Montréal (Québec): Université de Montréal; 2000.
Leeuw AR, Dreschler WA. Advantages of directional hearing aid
microphones related to room acoustics.
Audiol 1991;30:330–4. Lurquin P, Rafhay S. Intelligibility in noise using
multimicrophone hearing aids. Acta Otolaryngol Belg 1996;50:103–9.
May AM, Larsen CB, Warland A. Multi-microphone instruments, DSP
and hearing-in-noise. Tech Topic 2000:1–423.
Mueller HG, Grimes AM, Jerome JJ. Performance-intensity functions as a
predictor for binaural amplification. Ear Hear 1981;2:211–4.
Novick ML, Bentler RA, Dittberner AD, Flamme GA. Effects of release
time and directionality on unilateral and bilateral hearing aid fittings in
complex sound fields. J Am Acad Audiol 2001;12:534–44.
Pumford JM, Seewald RC, Scollie SD, Jenstad LM. Speech recognition
with in-the-ear and behind-theear dual-microphone hearing instruments. J
Am Acad Audiol 2000;11:23–35.
Preves DA, Sammeth CA, Wynne MK. Field trial evaluations of a
switched directional/omnidirectional in-the-ear hearing instrument. J Am
Acad Audiol 1999;10:273–84.
Ricketts T. Directivity quantification in hearing aids: fitting and
measurement effects. Ear Hear 2000a;21:45–58.
Ricketts T. Impact of noise source configuration on directional hearing aid
benefit and performance.
Ear Hear 2000b;21:194–205.
Ricketts T. The impact of head angle on monaural and binaural
performance with directional and omnidirectional hearing aids. Ear Hear
2000c;21:318–28.
Ricketts T, Dhar S. Comparison of performance across three directional
hearing aids. J Am Acad Audiol 1999;10:180–9.
Ricketts T, Mueller HG. Making sense of directional microphone hearing
aids. Am J Audiol 1999;8:117–27.
Ricketts T, Lindley G, Henry P. Impact of compression and hearing aid
style on directional hearing aid benefit and performance. Ear Hear
2001;22:348–61.
- 57 -
38.
39.
40.
41.
42.
Saunders GH, Kates JM. Speech intelligibility enhancement using hearingaid array processing. J Acoust Soc Am 1997;102:1827–37.
Valente M, Fabry DA, Potts, LG. Recognition of speech in noise with
hearing aids using dual microphones. J Am Acad Audiol 1995;6:440–9.
Walden BE, Surr RK, Cord MT, Edwards B, Olson L. Comparison of
benefits provided by different hearing aid technologies. J Am Acad Audiol
2000;11:540–60.
Wouters J, Litière L, Van Wieringen A. Speech intelligibility in noisy
environments with one- and twomicrophone hearing aids. Audiol
1999;38:91–8.
Audiology Insight_IT N.2, 2002(Edizione Speciale); 1, 2003; 1, 2004;
2,2004:“ Progettazione di software per apparecchi acustici- Feedback
acustico: Il problema e alcune soluzioni- Elaborazione dei segnali in tempo
reale e conseguenti vantaggi per gli ipoacusici- Non è meglio avere più
canali?”-“Ventilazioni e Apparecchi Digitali”-“NEO Nuove tendenze
nel Digitale”.
- 58 -
Fly UP