Comments
Description
Transcript
Scarica il testo completo
UNIVERSITA’ DEGLI STUDI DI NAPOLI “FEDERICO II” FACOLTA’ DI MEDICINA E CHIRURGIA CORSO DI LAUREA IN TECNICHE AUDIOPROTESICHE Presidente: Prof. Elio Marciano TESI DI LAUREA PROTESI DIGITALI E VALUTAZIONE DEI MICROFONI DIREZIONALI Relatore Ch.mo Prof. Gennaro Auletta Candidato Fabio Di Napoli Matr. 585 / 02 Correlatore Dott. Pasquale Riccardi Anno Accademico 2005 – 2006 Dedicata alla mia famiglia… …e in particolar modo a mio padre! -2- INDICE I. CAPITOLO – Protesi Acustiche Digitali 1.1 1.2 1.2.1 1.2.2 1.2.3 1.2.4 II. Introduzione pag. 4 Architettura della Protesi Digitale Sistemi di Ottimizzazione del Segnale pag. 7 pag. 11 Riduzione Digitale dell’Effetto Larsen Riduzione Digitale del Rumore Riduzione Digitale del Riverbero Enfatizzazione Digitale del Parlato pag. 11 pag. 13 pag. 15 pag. 16 CAPITOLO – I Microfoni pag. 19 2.1 2.2 pag. 19 pag. 22 Microfoni Direzionali e DSP Tecnologie a Confronto 2.2.1 Tipologie di Microfoni 2.3 2.4 2.5 2.6 2.7 III. pag. 4 Caratteristiche fondamentali di un microfono Diagrammi Polari Sistemi Direzionali Direzionalità Adattiva Multibanda Come Valutare la Qualità di un Microfono pag. 23 pag. 26 pag. 28 pag. 29 pag. 36 pag. 37 CAPITOLO – Sperimentale pag. 39 3.1 pag. 39 Descrizione del Sistema 3.1.1 Software Viper 3.2 3.3 3.4 Fast Fourier Transform Sonogramma e Spettrogramma Protesi Acustica utilizzata nei tests 3.4.1 Funzionalità del Destiny™ 400 Dir 3.4.2 Caratteristiche Elettroacustiche del Destiny™ 400 Dir 3.5 Acquisizione e Analisi dei Dati 3.5.1 Acquisizione dei Segnali Provenienti da Diverse Angolazioni 3.5.2 Analisi e Verifica dei Dati 3.5.3 Valutazioni Finali pag. 40 pag. 41 pag. 44 pag. 46 pag. 46 pag. 47 pag. 47 pag. 48 pag. 50 pag. 53 Conclusioni pag. 55 Bibliografia pag. 55 -3- CAPITOLO I PROTESI ACUSTICHE DIGITALI Introduzione La protesizzazione acustica è un complesso processo terapeutico indicato in tutti i casi di ipoacusia invalidante non trattabile farmacologicamente o chirurgicamente. Il trattamento appropriato dei pazienti con deficit uditivo consiste nella diagnosi precoce del deficit, nella valutazione delle capacità di sviluppo, nella dotazione di apparecchi acustici appropriati ed infine in un followup teso ad assicurare che le protesi installate funzionino adeguatamente, che siano le più adatte e che vengano usate con costanza. La prima protesi acustica era semplicemente un amplificatore con un guadagno di un fattore predefinito in fase di progettazione. In altre parole un segnale entrava al suo ingresso con una grandezza di alcuni microvolt ed usciva più grande di 100 – 1000 volte, ma uguale a sé stesso. Più grande ma ANALOGO, da cui il nome ANALOGICO, a quello che era entrato ( amplificazione di tipo “lineare” ); a volte anche peggiorato poiché alterato dalle distorsioni generate dal sistema stesso. Col tempo, si sono avuti i primi controlli aggiuntivi: filtri passivi che permettevano di modificare in modo personalizzato la curva di risposta dell’apparecchio acustico; toni alti, toni gravi, l’MPO o anche uscita massima; vari AGC, filtri che avevano comunque pendenze limitate. Di seguito diamo una rappresentazione schematica di una protesi acustica analogica ( Fig. 1 ): Fig. 1. -4- I prodotti analogici si offrono però a numerosi spunti critici, riguardanti la difficoltà, riferita dai pazienti, sull’adattamento alle varie situazioni di ascolto ( silenzio, rumore, musica, ambiente affollati, suoni forti, etc … ) e l’effettiva difficoltà di discriminazione verbale in ambiente rumoroso, rumore di fondo eccessivo e fenomeni di feed-back. Ovviamente l’innovazione tecnologica ha permesso l’introduzione sul mercato di protesi acustiche sempre più sofisticate ( programmabili e digitali ) capaci di rispondere al meglio alle aspettative del paziente ipoacusico, permettendo un’adeguata personalizzazione del prodotto rispetto all’audiogramma ( perdita acustica ) del paziente stesso. In realtà, non esiste fondamentalmente una gran differenza fra tecnologia analogica e programmabile, nel senso che il modo di operare sul segnale è esattamente lo stesso in entrambi i mondi tecnologici. Ciò che differenzia i due mondi è sostanzialmente il fatto che la tecnologia programmabile può fare affidamento su una elevata miniaturizzazione mentre nell’analogico la miniaturizzazione è di più difficile realizzazione. Per esempio, un trimmer analogico occupa lo spazio equivalente a dieci/dodici funzioni di trimmer nel mondo programmabile; non solo, ma nel mondo programmabile i trimmer elettronici offrono valori ben determinati e facilmente riproducibili. In più la loro azione può assumere valori e range molto ampi, il che limita il numero di modelli di cui si necessita per correggere un ampio range di ipoacusie. Un altro vantaggio offerto consiste in molti casi nella possibilità d’avere diverse tipologie di limitazioni di uscita, il che consente di adattare al meglio l’apparecchio alle necessità del cliente, anche se, come avviene negli analogici, non si può differenziare il limitatore frequenza per frequenza. Con i programmabili sono nati sistemi di limitazione di tipo WDRC ( Wide Dynamic Range Compression – Ampia Compressione del Campo Dinamico ), con questo sistema è possibile ottenere caratteristiche della curva I/O “multisegmentata” cioè composta di segmenti a pendenza diversa per intervalli diversi del livello dello stimolo presentato in ingresso ( amplificazione di tipo “non lineare” - Fig. 2 ). Esso è gestibile tramite software variando soglie e rapporti di compressione. -5- La protesi digitale, invece, si avvale di un sistema automatico di auto-configurazione che persegue ininterrottamente il miglior rapporto segnale/rumore mutando la sua elaborazione in tempi ristrettissimi dell’ordine di millesimi di secondo. In questa maniera si attenuano i rumori, anche quelli improvvisi, e permette alla persona d’avere conversazioni non disturbate. Queste protesi sono dotate di migliaia di regolazioni per ottenere la combinazione ottimale d’ascolto ed erogare il migliorare rapporto voce/rumore1 ed è per questo che le moderne protesi acustiche si adattano alla quasi totalità delle perdite uditive ( diciamo da lieve a moderata-grave). Gli apparecchi programmabili2 quindi hanno a disposizione molti più comandi rispetto agli analogici, poi presentano la possibilità di agire su caratteristiche che prima non esistevano: possono avere più canali di amplificazione; possono avere diversi tipi di compressione ( duale lenta, duale veloce, sillabica, a tempo di recupero variabile, adattabile, WDRC, BILL, etc… ); consentono in alcuni casi di modificare i tempi di azione delle compressioni; consentono di decidere quale tipo di limitazione della potenza usare per quel particolare cliente, ed altre ancora. 1 La sigla VNR ( rapporto voce/rumore ) si preferisce rispetto a quella SNR ( rapporto segnale/rumore ) perché il punto focale è rappresentato dalla voce umana piuttosto che dalla sorgente predominante, che potrebbe anche essere il rumore. 2 La programmazione di questi apparecchi si ottiene mediante inserimento dell’audiogramma del paziente in un PC. Il software di gestione per gli apparecchi programmabili guida alla selezione dell’apparecchio acustico più idoneo. Le regolazioni che vengono via-via effettuate possono essere memorizzate nel microchip dell’apparecchio e opportunamente richiamate dal paziente, in funzione alle diverse situazioni d’ascolto, spostando o pigiando semplicemente un tasto sull’unità di programmazione ( le protesi digitali attuali si configurano automaticamente ). -6- Confronto tra un’amplificazione “lineare” ed una “non lineare” : osserviamo che per i suoni fino a 40 dB in ingresso entrambi i circuiti si comportano allo stesso modo. Per i suoni più alti, il “lineare” prosegue con un’amplificazione costante, invece il “non lineare” agli 80 dB riduce il guadagno fino renderlo unitario . Oltre i 100 dB entrambi attenuano ed in uscita non abbiamo mai più di 120 dB. Con l’amplificazione di tipo “non lineare” è possibile risolvere in modo efficace il problema legato alla sotto/sovramplificazione. Fig. 2: Curva Ingresso/Uscita di un apparecchio acustico a funzione “lineare” con peack clipping e di uno a funzione “non lineare” con compressione dinamica e compressione limite ( adattata da Killion ). 1.1 Architettura della Protesi Digitale La protesi acustica è un sistema elettroacustico volutamente a bassa fedeltà, ossia il segnale d’uscita è distorto rispetto al segnale d’ingresso. La distorsione è generata per sopperire la perdita acustica del soggetto. Indipendentemente dal modello e dalle caratteristiche elettroacustiche una protesi acustica è essenzialmente composta da tre elementi : un trasduttore di ingresso ( microfono ), un amplificatore che viene alimentato da una pila di semplice sostituzione e un trasduttore di uscita ( altoparlante o impropriamente detto “ricevitore” ). In base alla capacità e alle modalità di trattamento del segnale, gli apparecchi acustici si distinguono in analogici ( tradizionali ), programmabili digitalmente e totalmente digitali. Possiamo illustrare una Protesi Acustica Digitale come in Fig. 3: -7- Fig. 3: schema a blocchi di una protesi acustica digitale. I circuiti digitali, in particolare, consentono l’ELABORAZIONE DEL GUADAGNO (GAIN PROCESSING) ossia l’elaborazione flessibile del guadagno ad una maggiore udibilità dei suoni riducendo le distorsioni e lo sconforto con suoni più intensi. La maggiore flessibilità e controllo della compressione ci viene data dal Digital Signal Processing “DSP” ( Fig. 4 ), tale dispositivo può creare le condizioni favorevoli per una migliore udibilità. Nell’apparecchio acustico digitale è stata introdotta, anche, la caratteristica chiamata “espansione” (ing. Cotrona U., 2004; Notarianni, L., 2004), questa elaborazione può portare ad una migliore soddisfazione acustica con relativa riduzione del rumore ambientale di sottofondo o microfonico. Attraverso l’espansione è possibile ridurre il rumore circuitale. In realtà questa è l’opposto della compressione ed interviene per ridurre il guadagno ai bassi livelli dei segnali d’ingresso, eliminando così l’amplificazione dei rumori ambientali senza però ridurre la parte necessaria alla riproduzione del segnale vocale. Fig. 4: L’immagine è rappresentativa in quanto la compressione, nelle protesi digitali, agisce sui numeri e non sulle forme d’onda. -8- Il “DSP” è un processore specializzato (CPU) che ha lo scopo di eseguire in tempo reale applicazioni per l'elaborazione dei segnali digitali al fine di estrarre informazioni o modificare, in modo opportuno, i segnali sonori. Nel processore sono implementati complessi algoritmi che permettono al DSP di analizzare, filtrare ed elaborare il segnale acustico. Lavorare su segnali digitali significa dover lavorare, non più su segnali analogici e quindi sulle forme d’onda, ma sui bit, per tale motivo nasce l'esigenza di passare da un dominio analogico ad un dominio digitale fatto di due soli valori ( 0 e 1 ). Dovendo lavorare solo su due valori l’elaborazione risulta essere più veloce permettendo al DSP di effettuare simultaneamente un insieme d'operazioni quali l'addizione, sottrazione, moltiplicazione, shifting o traslazioni ed altre operazioni logiche. Questo tipo di elaborazione ci permette di intervenire solo sui parametri desiderati senza compromettere la qualità del suono che quindi è nettamente migliore, in più si possono avere soluzioni personalizzate. Nel digitale i parametri possono essere programmati da un computer, ciò permette di immettere più opzioni di adattare il suono man mano che la perdita uditiva fluttua. Un tipico sistema d'elaborazione dei segnali digitali è costituito dai seguenti elementi : -9- · Convertitori analogici digitali A/D: campionano e quantizzano il segnale analogico o meglio lo digitalizzano assegnando ad ogni punto della forma d’onda (segnale anologico) un valore finito (un numero). Una volta digitalizzato, il segnale, è portato in ingresso al processore dove viene elaborato e modificato in accordo a quelle che sono le regole predefinite dal programma (algoritmi). · Processore dei segnali digitali DSP3. · Memoria RAM: il blocco RAM rappresenta la memoria volatile, in essa sono memorizzate le istruzioni e i dati elaborate dal DSP e momentaneamente immagazzinate nella memoria. Spesse volte la RAM viene implementata sul DSP per accelerare le operazioni di lettura e scrittura incrementando le prestazioni del sistema. · Memoria ROM4: Il blocco ROM rappresenta la memoria non volatile ove sono memorizzate le istruzioni necessarie per inizializzare il processore dei segnali digitali. Il contenuto della ROM resta invariato anche in assenza di alimentazione e, al momento dell'accensione del sistema, è scaricato sul blocco RAM. · Convertitori digitali analogici D/A5: trasducono il segnale digitalizzato ed elaborato nel dominio analogico per poter essere interpretato dall’ipoacusico. Esiste anche un’altra unità di memoria la EPROM, acronimo di Erasable Programmable Read Only Memory, è una memoria riscrivibile tramite impulsi elettrcici: si tratta di un'evoluzione della ROM che, una volta programmata, non poteva essere più modificata; la EPROM invece può essere totalmente cancellata e riprogrammata a piacimento ed è utilizzata per memorizzare le caratteristiche di adattamento impostate dall’audioprotesista. 3 La potenza di calcolo e la flessibilità dei DSP consente il loro impiego per un vasto intervallo di applicazioni (industriali e telecomunicazioni). 4 I protocolli di adattamento protesico consentono di programmare la memoria ROM in un corpo di istruzioni a partire dai dati audiometrici, dall’accoppiamento acustico, dalle caratteristiche acustiche ambientali, dalle preferenze individuali di ascolto. In tal modo la protesi utilizza le istruzioni per aggiustare in modo dinamico la sua operatività, per esempio massimizzando il riconoscimento del parlato e la qualità dei suoni in differenti condizioni di rumorosità. 5 Oggi esistono convertitori D/D cioè il convertitore è all’interno del ricevitore: ciò riduce la distorsione e limita gli spazi. Ridurre la distorsione significa eliminare una potenziale fonte di rumore. - 10 - Tutti i sistemi di elaborazioni digitali richiedono, inoltre, un clock per cadenzare le operazioni del DSP. In più c’è da dire che le protesi acustiche sono dotate di DSP ad “architettura aperta”6 (Ricci M., 2004; Marzulli F. et al., 2004) che consentono un’elaborazione del segnale d’ingresso, alla protesi, tale da garantire l’amplificazione necessaria e di evitare, al tempo stesso, le degradazioni del contenuto informativo del messaggio vocale. I primi modelli disponevano di circuiti DSP denominati “piattaforme chiuse”, nel senso che gli stessi DSP venivano sviluppati con caratteristiche idonee all’algoritmo secondo il quale avrebbero dovuto funzionare. Le protesi digitali possono non presentare le stesse caratteristiche sia funzionali che circuitali ( dispositivi incorporati, software di gestione e loro funzionalità ) anche se una prima prerogativa comune è quella di aumentare il rapporto voce/rumore e cioè migliorare l’intellegibilità7 della parola in ambienti rumorosi. Dalla qualità di questo fattore dipenderà la comprensione del paziente, essenziale in una società di comunicazione. Se da un punto di vista tecnologico la protesi digitale ha migliorato la qualità del segnale acustico in uscita, dall’altro ha introdotto diversi parametri di programmazione che richiedono una buona preparazione dell’audioprotesista per adattarli alla perdita acustica del paziente. 1.2 SISTEMI DI OTTIMIZZAZIONE DEL SEGNALE 1.2.1 Riduzione Digitale dell’Effetto Larsen (Digital Feedback Reduction “DFR”): Uno dei problemi costantemente riscontrati dai portatori di apparecchi acustici è il feedback acustico noto anche come effetto Larsen. Questo può essere descritto come la percezione di un «fischio», uno «stridio», un «tintinnio», un «ronzio» e una «vibrazione». In realtà l’effetto Larsen consiste in questo: quando 6 Nel 1997 vennero sviluppati dei circuiti DSP denominati “piattaforme aperte”, ovvero dei circuiti destinati ad una più larga diffusione poiché in grado di funzionare con diversi algoritmi. Questi DSP si sono evoluti fino ad arrivare ad una generazione di processori sempre più veloci e potenti, capaci di effettuare con estrema rapidità i calcoli più laboriosi. Questa potenzialità ha consentito di sviluppare algoritmi sempre più complessi in grado di gestire un numero sempre crescente di parametri ad una velocità sempre maggiore. 7 Uno dei primi sintomi di perdita uditiva è una ridotta intelligibilità della voce in ambienti rumorosi. - 11 - il suono amplificato ritorna all’ingresso del sistema, viene nuovamente amplificato e si crea una sorta di “anello sonoro” ( loop ) che si ripete. Se il ciclo di dispersione, captazione e amplificazione si ripete continuamente il sistema diventa instabile dando luogo a delle oscillazioni. L’instabilità e le oscillazioni si traducono in un forte fischio che non è solo sgradevole, ma anche dannoso. Il feedback acustico si verifica quando un microfono è troppo vicino all'altoparlante che emette i suoni captati con sufficiente "potenza di innesco" dal microfono stesso che li rimanda al medesimo altoparlante, come in un circuito chiuso. L’origine del feedback acustico può essere dovuto anche dalla presenza di superfici riflettenti, dispersioni intorno alla chiocciola o ancora da ventilazioni eccessive. Per la riduzione del feedback, sistemi più raffinati effettuano il monitoraggio mentre l’apparecchio acustico è in operazione. Il feedback è ridotto o eliminato attraverso sistemi di cancellazione o filtraggio. Il DFR può essere utile nel caso in cui l’effetto Larsen si avverte occasionalmente con il movimento mandibolare. Il sistema antifeedback ad inversione di fase si basa sul principio dell’inversione di fase, secondo il quale un’onda sonora viene cancellata per mezzo della sovrapposizione della stessa onda sfasata di 180° ( Fig. 5). Fig. 5: Principio dell’Invertitore di fase del feedback. Il segnale di feedback ( rosso ) e il segnale a inversione di fase ( verde ) si annullano reciprocamente eliminando il feedback senza perdita di guadagno ( da PHONAK – BIONICA DIGITALE ). - 12 - 1.2.2 Riduzione Digitale del Rumore (Digital Noise Reduction “DNR”): Una precisa localizzazione comporta che sia l’intellegebilità che la qualità sonora naturale del parlato risultano migliorati quando la sua posizione spaziale viene percepita separatamente rispetto alle sorgenti di rumore ( Plomp, 1976). Questo algoritmo consente la riduzione del guadagno sia nelle basse frequenze sia nelle specifiche frequenze quando è avvertito uno stato del segnale stabile ( rumore ). In molte situazioni della vita reale le sorgenti di rumore sono separate spazialmente e spettralmente, il DNR permette la soppressione selettiva di queste sorgenti ( Fig. 6 ). Fig. 6: Soppressione selettiva delle sorgenti di rumorose. In questo modo la più forte fonte di rumore viene per la maggior parte rimossa e contemporaneamente il segnale di parlato frontale viene amplificato ( da PHONAK – BIONICA DIGITALE ). Il sistema effettua un’attenuazione del rumore ad alta risoluzione e controlla il rumore del vento. Per vie generali i sistemi di attenuazione del rumore si affidano ad algoritmi che svolgono una “sottrazione spettrale” e una “cancellazione della fase” mediante DSP. Il principio di base della “sottrazione spettrale”8 è quello di identificare le 8 Questo approccio di base richiede un’accurata stima della composizione spettrale del rumore. Se le frequenze caratteristiche vengono riconosciute attraverso un banco di filtri inverso è possibile rimuovere solo quelle frequenze non utile presenti nel segnale. Ovviamente i filtri rimuoveranno non solo le componenti frequenziali del rumore ma anche parte dell’energia presente del parlato quando il rumore avrà un’estensione frequenziale abbastanza ampia da rientrare in quelle frequenze proprie del parlato. La banda di frequenza del parlato è compresa tra 200 Hz e 5000 Hz e una maggiore concentrazione di informazioni la otteniamo approssimativamente nell’intervallo 1000 Hz – 3000 Hz. Se il rumore concomitante ha una banda ristretta ( es. meno di un’ottava ), filtrando questa parte di spettro (rumore), allora le informazioni del parlato saranno comunque sufficienti al riconoscimento del messaggio verbale. Diversamente invece, se la banda del rumore è più estesa in frequenza il banco di filtri rimuoverà anche parte del parlato. - 13 - frequenze caratteristiche del rumore, nel segnale entrante, per poi sottrarlo dallo spettro del parlato ( segnale utile ). La “cancellazione della fase” è indirizzato ad un approccio più sofisticato che si avvale di quell’effetto matematico che se una forma d’onda è uguale e invertita di 180° in fase e sommata alla forma d’onda originale il suono è annullato completamente. La Fig. 7 mostra quest’effetto: Fig. 7: Principio dell’Inversione di fase (da OTICON – Intelligenza Artificiale ). Controllo del Rumore del Vento: Il rumore del vento ha una caratteristica a bassa frequenza (quindi copertura delle alte frequenze), può raggiungere livelli di pressione sonora molto alti, è dinamico e dipende dalla direzione e dalla velocità del vento. Il rumore del vento, negli apparecchi acustici, può dar luogo a effetti di mascheramento e saturazione dei microfoni e quindi, nel caso in cui il rumore raggiunge alti livelli, può provocare come reazione la RIDUZIONE DEL GUADAGNO. Il “controllo del rumore del vento” svolge una duplice funzione: 1. Protezione meccanica à attenua le turbolenze prima che raggiungano i microfoni 2. Eliminazione elettronica à in base all’analisi del segnale d’ingresso, il rumore viene rilevato elettronicamente e tutte le componenti dovute a tale rumore vengono eliminate dal segnale. Queste funzionalità permettono, agli apparecchi acustici digitali, di mantenere le impostazioni direzionali dei microfoni anche in ambienti ventosi e quindi - 14 - migliorare al contempo il rapporto VOCE/RUMORE ( migliore distinzione tra rumore e segnali di parlato ). Cosa importante, l’attenuazione totale applicata è minore quando è presente la voce che non quando nel segnale è presente solo rumore. Inoltre, quando è presente la voce, l’attenuazione del rumore viene conformata all’Indice di Articolazione Pesato9, così da assicurare la preservazione di informazioni verbali di rilievo. Ciò consente alla protesi acustica digitale di interpretare e di reagire meglio alle modificazioni dell’ambiente di ascolto poiché sussiste un’analisi continua dell’ambiente circostante al fine di fornire il grado ottimale di attenuazione in qualsiasi ambiente di ascolto complesso. 1.2.3 Riduzione Digitale del Riverbero (Digital EchoBlock “DEB”): L’eco è un fenomeno che ritroviamo molto spesso nelle diverse situazioni d’ascolto in quanto esso è provocato dalla riflessione dei suoni da parte di pareti, soffitto o finestre, che creano copie ritardate, dallo spettro leggermente modificato e attenuate del segnale sorgente originale. Ciò comporta una limitazione e un peggioramento, ulteriore, nell’intellegibilità del parlato ( sia nelle situazioni tranquille che in quelle rumorose ). Il riverbero causa scarsa intelligibilità nel parlato perché se c’è riverbero alle orecchie dell’ascoltatore arriva una sovrapposizione del suono diretto dalla sorgente più delle riflessioni ( del segnale stesso, Fig. 8 ) con un risultato finale di un segnale “temporalmente disperso” rispetto al segnale originale. Il riverbero è caratterizzata dal “tempo di riverberazione” che indica la “lunghezza temporale di presenza delle riflessioni” ( cioè per quanto tempo c’è riverbero e quindi da quando iniziano le riflessioni e quando si esauriscono ) e i cui valori tipici vanno 9 Fa riferimento alla valutazione dell’intellegibilità della parola. Le ricerche e i numerosi metodi che sono stati elaborati e proposti per il calcolo dell’intellegibilità del parlato hanno come scopo quello di fornire un mezzo attendibile di previsione delle caratteristiche acustiche dell’auditorio da realizzare ( cioè dei vari ambienti o scenari uditivi ). Tale previsione si basa sul calcolo e prende in considerazione l’intensità del segnale, rumore di fondo, riverberazione e modalità di riflessione sonora per consentire la valutazione di qualità sonora nei diversi ambienti e definire in tal modo un Indice di Articolazione ( globale e pesato ). In altre parole l’Indice di Articolazione valuta l’importanza delle frequenze nel parlato: frequenze gravi o molto acute hanno importanza diversa nelle diverse lingue (Maurizio Clerici, 2004). - 15 - da circa 0,4 secondi negli uffici e nelle piccole aule, a oltre 2 secondi nelle sale di concerto e nelle chiese. Con il riverbero si verifica l’appiattimento temporale del messaggio sonoro ed in aggiunta se il tempo di riverbero è molto lungo si avrà una copertura del messaggio primario. Fig. 8: Riverberazione: sovrapposizione del suono diretto dalla sorgente e delle riflessioni ( da PHONAK – BIONICA DIGITALE ). Utilizzando particolari algoritmi, le protesi digitali riconoscono il riverbero e lo attenuano efficacemente: Fig. 9: Funzionamento del sistema di soppressione del riverbero ( da PHONAK – BIONICA DIGITALE ). 1.2.4 Enfatizzazione Digitale del Parlato (Digital Speech Enhancement “DSE”): L’attuale sistema d’elaborazione DSE 10 identifica ed enfatizza il parlato basandosi sul contenuto temporale e spettrale del segnale. 10 L’impiego del DSP ha migliorato la comprensione del parlato nel rumore poiché gli algoritmi implementati si focalizzano sull’identificazione delle caratteristiche spettrali del parlato - 16 - L’elaborazione digitale del segnale può essere diretta a modificare i rapporti di energia acustica rilevata in corrispondenza di vocali e consonanti, o nell’enfatizzazione di contrasti spettrali manipolando la larghezza di banda delle formanti, “spectral enhancement11”, nel tentativo di imitare il sistema uditivo umano. Questo può essere realizzato usando un banco di filtri per dividere il segnale audio in una serie di canali a bande frequenziali diverse. Lo Spectral Enhancement consente, in altre parole, di aumentare il rapporto energetico fra il picco e la valle delle formanti aumentandone il contrasto e riducendo il rumore presente nella zona di minima energia. In realtà il riconoscimento del messaggio verbale avviene attraverso l’indice di modulazione. L’indice di modulazione è dato dalla distanza che intercorre tra il picco e la valle presenti in un oscillogramma del parlato ( Fig. 10a ), ovvero misura l’ampiezza in dB della funzione risultante ( Fig. 10b ). Questa strategia consente, quindi, di ridurre l’effetto mascherante dovuto all’amplificazione dello spettro adiacente le formanti (Tempasta Ruggero, 2003; Gianluca Vivarelli, 2003). Fig. 10a: Grafico di un oscillogramma del parlato. Fig. 10b: Indice di Modulazione: in questo caso l’ampiezza del messaggio verbale è maggiore dell’ampiezza del rumore, questa differenza permette al sistema digitale di distinguere il rumore dal parlato riducendo l’ampiezza del rumore nelle bande da esso interessate. enfatizzando queste ultime a scapito di quelle del rumore che in effetti sono inutili alla comprensione. Il DSP lavora sulle formanti vocaliche e cioè quando una vocale è presente viene riconosciuta e l’algoritmo ne aumenta il contrasto dei picchi positivi e negativi ( Lyzenga, Festen & Houtgast, 2002 ). Un secondo metodo, invece, è quello di identificare le frequenze caratteristiche delle consonanti e amplificarle al di sopra dello spettro. Altro approccio è quello di identificare il discorso in uno sfondo di rumore, sintetizzarlo e ricostruirlo. 11 La ridotta risoluzione in frequenza e la loudness alterata, caratterizzano, molto spesso, l’ipoacusia neurosensoriale. Mentre la loudness può essere corretta attraverso strategie di amplificazione con compressione o limitazione d’uscita, la ridotta risoluzione in frequenza implica un diverso trattamento del segnale. L’effetto del mascheramento dovuto alla scarsa selettività in frequenza può essere ridotto attraverso un’amplificazione spettrale mirata. - 17 - Con l’introduzione della tecnologia digitale si è giunti ad un altissimo sviluppo tecnologico, ma è divenuto sempre più evidente che esistono altri fattori che influenzano il fitting protesico Altra variabile predittiva di resa protesica (introdotta dal prof. Gatehouse, 2003) tiene conto delle condizioni d’ascolto, l’ambiente sonoro nel quale l’ipoacusico si trova con maggiore frequenza e rispetto al quale sono rivolte le sue aspettative di miglioramento uditivo con la protesi acustica. In altre parole per un buona personalizzazione (fitting protesico) bisogna ed è necessario conoscere l’ “ecologia uditiva”(luoghi di maggior frequenza dell’ipoacusico ) del paziente. Attualmente le protesi prevedono quattro situazioni reali ( Fig. 11 ): 1. Ambiente tranquillo (voce nel silenzio): per assicurare una comprensione ottimale del parlato attraverso un’ampia gamma di livelli di ingresso. 2. Parlato nel rumore: per regolare il grado di attenuazione del rumore canalespecifica in conformità con l’Indice di Articolazione Pesato, in maniera da assicurare la preservazione della comprensione del parlato. 3. Solo rumore: per fornire attenuazione massima in ciascun canale quando nel segnale sia presente soltanto rumore, al fine di garantire il massimo livello di comfort. 4. Musica: per normalizzare la qualità sonora musicale evitando distorsioni. Il programma “musica” è ancora in fase di sperimentazione e la ricerca attuale è indirizzata a sfruttare il principio dell’ MP3. Fig. 11: L’ immagine mostra che le situazioni quotidiane possono essere raggruppate in 4 categorie, comprendenti tutte le situazioni d’ ascolto. In ognuna delle quattro categorie di base il sistema acustico deve soddisfare le relative aspettative uditive (da PHONAK - BIONICA DIGITALE). - 18 - CAPITOLO II I MICROFONI 2.1 Microfoni Direzionali e DSP Alcune protesi acustiche presentano due aperture per l’ingresso dei suoni (una anteriore e una posteriore, come vedremo in seguito - §2.5 pag. 23) ( Fig. 12a e 12b: Microfono Direzionale in BTE e ITE ): in questo caso si parla di microfono direzionale. Poiché l’apertura frontale Fig. 12a. ha una suscettibilità maggiore in dB rispetto a quella posteriore, si crea un ritardo temporale tra i suoni provenienti frontalmente e quelli che giungono da dietro, con conseguente miglioramento della localizzazione dei suoni stessi e della loro discriminazione. Con l’avvento dell’elettronica digitale è stato possibile migliorare il rapporto voce/rumore e in qualche caso, la combinazione del DSP con il microfono direzionale può ulteriormente migliorare questo rapporto. Alcuni modelli d’apparecchio acustico digitale utilizzano il DSP per calibrare il microfono, controllare la sensibilità direzionale e automaticamente commutare dal modo direzionale a quello omnidirezionale. Fig. 12b. Migliorare i microfoni implica un miglioramento della localizzazione del suono che comporta a sua volta una intelligibilità ( qualità ) del segnale percepito. La nostra capacità di localizzazione dei segnali è basata su indicatori acustici ( perché ogni segnale ha una sua frequenza e una sua intensità ) come “differenze interaurali temporali e d’intensità” ( ITD e ILD o IID ) e “componenti della forma spettrale” generati dal padiglione auricolare. Un suono che arriva dal lato sinistro della testa giunge all’orecchio sinistro prima che all’orecchio destro, questa “differenza di tempo” è chiamata ITD12 ovvero Differenza di Tempo Interaurale la quale oscilla da 0 ( per un suono 12 La ITD è più importante per le basse frequenze. - 19 - proveniente frontalmente alla testa ) a circa 650 microsecondi ( per un suono proveniente a 90° ). In aggiunta, il livello sonoro sarà meno sentito all’orecchio destro a causa dell’effetto ombra della testa. Le frequenze oltre i 1500 Hz hanno una lunghezza d’onda minore rispetto al diametro della testa ( quest’ultimo si assume pari a 16 – 18 cm nell’adulto ) e per questo sono notevolmente attenuate. La Differenza d’Intensità Interaurale o IID13 è la differenza in intensità percepita da un orecchio rispetto a quella percepita dall’altro orecchio in relazione alla stessa stimolazione acustica; ovviamente risulta che i suoni sono più intensi per l’orecchio più vicino alla fonte. Mentre le differenze interaurali temporali e d’intensità forniscono informazioni sull’angolo orizzontale ( o anche piano azimutale ) della sorgente sonora ( Fig. 13a ), il cambiamento dei segnali provocato dal padiglione auricolare è soprattutto importante per la localizzazione verticale ( piano d’elevazione ) e per la discriminazione fronte/retro ( Blazer, 1997 ) ( Fig. 13b ). Fig. 13a : La ITD e la IID forniscono informazioni sul piano azimutale. Fig. 13b : Alcuni suoni raggiungono l’orecchio entrando direttamente dal C.U.E. ed altri suoni solo successivamente alle riflessioni dovute ad una o più pieghe della conca auricolare. Chi indossa apparecchi acustici ha un’attenuazione della funzionalità del padiglione ( il padiglione auricolare svolge un’importante funzione sull’informazione spettrale e in particolar modo favorisce la direttività delle alte frequenze ) e quindi una compromissione delle prestazioni di localizzazione. Localizzazione peggiore rispetto a chi non indossa l’apparecchio e ciò vale sia per 13 IID è massimo per 90 gradi e –90 gradi, mentre è nullo per 0 gradi e 180 gradi; la IID è più importante per le frequenze alte. - 20 - la direzione orizzontale ( Orton e Preves, 1979 ) che per quella verticale ( Nobile e Birne, 1990 ). Il peggioramento delle prestazioni di localizzazione è dovuto alla posizione, innaturale, dei microfoni che vengono a collocarsi sopra l’orecchio e perciò non recepiscono i cambiamenti del segnale provocati dal padiglione auricolare, questo comporta confusioni fronte/retro per cui ad esempio un suono a 30° è percepito sia in intensità che nel tempo alla stessa maniera di un suono a 150° ( Fig. 14 ). Fig. 14: CONO DI CONFUSIONE: la percezione nel tempo e in intensità risulta identica cioè ITD è uguale a IID, ciò comporta che ad esempio un suono a 30° è percepito sia in intensità che nel tempo alla stessa maniera di un suono a 150°. Oggi le protesi digitali sono dotate di dispositivi che simulano gli effetti ( picchi spettrali ) provocati dal padiglione auricolare e ciò significa maggiore soddisfazione da parte del pz/cliente ( Fig. 15 ). Fig. 15 : Il contributo fisiologico dato dal padiglione auricolare viene compromesso per la posizione innaturale dei microfoni: attualmente con gli apparecchi acustici digitali si tenta di ottimizzare il suono quanto più reale possibile mediante sistemi sofisticati di trattamento del segnale ( da PHONAK – BIONICA DIGITALE ). - 21 - 2.2 Tecnologie a Confronto Essendo i microfoni il primo elemento della protesi acustica la loro scelta è fondamentale ai fini del risultato, tanto quanto il loro posizionamento. I microfoni sono trasduttori in grado di trasformare energia acustica in energia elettrica, in particolare le variazioni della pressione atmosferica vengono convertite in variazioni di tensione e dunque in corrente ( segnale elettrico/corrente elettrica e per questo sono anche detti trasduttori elettroacustici ). Le tecnologie con cui vengono realizzati i microfoni sono diverse e questo ci permette di avere a disposizione una vasta gamma di soluzioni a seconda del contesto in cui ci troviamo a operare. Vi sono microfoni più o meno sensibili, con diverse direzionalità, senza poi contare che ogni microfono ha un suo proprio timbro personale che lo caratterizza e che lo rende a suo modo unico. A causa delle differenze costruttive, i microfoni hanno una loro caratteristica risposta sonora e quindi queste differenze producono risposte non uniformi per quanto riguarda la fase e la frequenza. Inoltre i microfoni non hanno la stessa sensibilità a diversi livelli di pressione e quindi possono ricevere diversi livelli sonori prima di distorcere. Anche se per applicazioni scientifiche lo scopo è avere una risposta quanto più uniforme possibile, non sempre è così e ciò potrebbe comportare delle problematiche perché il microfono può colorare, esaltare in maniera interessante ad esempio la voce, per non parlare poi di eventuali disturbi esterni. La risposta in frequenza dà un’idea di che modifiche il microfono apporta all’onda sonora misurata. - 22 - 2.2.1 Tipologie di Microfoni Come già accennato i microfoni sono dei trasduttori elettroacustici e in base a come avviene questa trasduzione, i microfoni si possono dividere in diverse classi: microfoni elettromagnetici, microfoni ceramici, microfoni a condensatore o electret (elettretici permanenti). Microfoni elettromagnetici: sono più resistenti ed economici, reggono maggiormente gli alti volumi, presentando però una maggiore inerzia al movimento dovuta a motivi costruttivi (la pesantezza di membrana e l’avvolgimento), quindi non rendono i transienti come i condensatori. Nei microfoni elettromagnetici le onde provocano la vibrazione di un sottile diaframma metallico il quale provoca a sua volta la vibrazione di una bobina ad esso collegata e immersa in un campo magnetico generato da un magnete fisso. Tale movimento della bobina crea delle correnti elettriche che riproducono il comportamento delle onde sonore di partenza. I microfoni elettromagnetici hanno una scarsa fedeltà, una risposta in banda passante limitata e poco lineare, grossi consumi di energia ma sono resistenti e scarsamente sensibili agli agenti atmosferici. Microfono ceramici: Questo tipo di microfono sfrutta la proprietà di certi elementi ceramici di sviluppare un campo elettrico se sottoposti ad una compressione. I microfoni ceramici sono stati abbandonati perché, anche se hanno un’ottima fedeltà di riproduzione e una discreta banda passante, i materiali utilizzati nella costruzione di questi microfoni oltre ad essere delicati, sensibili agli urti, alle alte intensità, sono anche sensibili al calore e all’umidità ossia cambiano le caratteristiche in funzione delle condizioni ambientali ed inoltre presentano una rapida tendenza all'invecchiamento; in aggiunta, considerando la posizione della protesi questi difetti ne pregiudicano l’utilizzo. - 23 - Microfoni a condensatore ( electret ) ( Fig. 16 ): Questo tipo di microfono (detto anche elettrostatico) possiede al suo interno un condensatore. Una delle due piastre del condensatore è il diaframma del microfono e vibra in accordo ( in risposta ) con l'onda acustica incidente (il diaframma è mobile ). Tra le 2 armature di un condensatore si produce un potenziale elettrico ( il potenziale elettrico prodotto dipende dal voltaggio della sorgente, dall'area dell'armatura e dalla loro distanza ) applicando un basso voltaggio per mezzo di una sorgente (batteria), che può essere interna o esterna al microfono stesso ( nel nostro caso esterna ). La vibrazione della piastra produce la variazione della distanza tra le due piastre variando così il valore della capacità. Questo implica una variazione della tensione ai capi delle piastre con un conseguente passaggio di corrente: la corrente prodotta è però tanto debole da dover essere amplificata in uno stadio immediatamente successivo e quindi preamplificata prima di arrivare al circuito dell’apparecchio acustico14. I microfoni a condensatore sono molto più accurati dei microfoni elettromagnetici in quanto il diaframma può essere realizzato con materiali molto leggeri e di dimensioni ridotte ( sottile ) e dunque può risultare molto sensibile anche alle frequenze più alte ( buona riproduzione delle alte frequenze ). Si può danneggiare se sottoposto al pressioni sonore molto elevate. La vibrazione della membrana dovuta dalla pressione sonora provoca fenomeni di depolarizzazione e la generazione di un’onda elettrica per cui si determina un potenziale. Se abbiamo un’ onda acustica, quindi una compressione e una rarefazione dell’area, la membrana avrà una introflessione e una estroflessione a seconda se è in fase di compressione o in fase di rarefazione per cui si avvicina e si allontana. Questa oscillazione genera un segnale elettrico sinusoidale assolutamente uguale per frequenza al segnale acustico ma attenuato in intensità ( Fig. 17 ). 14 Il segnale elettrico in uscita è proporzionale come tensione, alle vibrazioni del diaframma e quindi alla pressione dell’onda incidente: il rapporto tra tensione d’uscita e la pressione si chiama sensibilità del microfono ed ha un valore compreso tra i 10 e i 50 mV/Pa. - 24 - Fig. 16: Rappresentazione grafica di un microfono electret. Il microfono a condensatore può essere rappresentato alla stessa maniera ma non presenta cariche negative e positive perché è alimentato da una batteria. I vantaggi di questo sistema, sono: 1) non richiedere energia cioè non ha bisogno di corrente per funzionare visto che avendo delle cariche sue per struttura fisica non necessita di alcuna alimentazione ( Fig. 15 ); 2) avere una banda passante estremamente ampia e lineare ciò significa che la risposta del microfono è perfettamente uguale a tutte le frequenze ( Fig. 16 ): Fig. 17: Ingresso microfono 60 dB; Uscita microfono 6 dBV (questo segnale viene preamplificato), da notare la linearità di questi sistemi. - 25 - Questi microfoni sono di qualità sicuramente superiore rispetto ai microfoni elettromagnetici e ceramici perchè hanno una maggiore sensibilità, una risposta in frequenza più lineare ed estesa (consentendo una risposta lineare anche in corrispondenza delle basse frequenze) e un rumore di fondo bassissimo. Queste qualità ne limitano anche l'impiego: sono adatti a riprendere solo strumenti che non hanno transitori troppo potenti e risultano ideali per le voci. 2.3 Caratteristiche fondamentali di un microfono Nel paragrafo precedente abbiamo presentato i vari tipi di microfoni da cui si evince che una delle caratteristiche principali è data dal principio di trasduzione. In realtà le principali caratteristiche che definiscono le prestazioni di un microfono sono: · Risposta in frequenza: cioè il modo di variare della sensibilità in funzione della frequenza dell’onda sonora. · Sensibilità: è il rapporto fra ampiezza del segnale elettrico uscente ( tensione d’uscita ) dal microfono e ampiezza del segnale acustico ( pressione acustica del campo sonoro ), è un'espressione del rendimento del microfono ( indica quindi la capacità del microfono di convertire la pressione acustica in tensione di uscita ). Viene di solito espressa in mV/Pa o anche dBV/Pa e non necessariamente questo parametro è un indicatore di qualità. La sensibilità di microfono è inversamente proporzionale alla rigidezza del diaframma la quale è dovuta alla tensione meccanica del diaframma stesso. La rigidezza dipende anche dal volume della cavità interna del microfono e dalla pressione statica al suo interno. Per minimizzare l’influenza della pressione statica sulla sensibilità del microfono è necessario avere un volume interno più grande quando il diaframma è meno rigido e viceversa. In pratica si riscontra che la sensibilità decresce al diminuire del diametro del microfono stesso, mentre la gamma utile in frequenza aumenta. E’ chiaro quindi che l’uso di un microfono che abbia una banda passante molto ampia, paga il prezzo in termini di sensibilità e viceversa. - 26 - · Rumore interno ( o di fondo ): è generato dai componenti elettrici all'interno del microfono in assenza di pressione acustica. Sicuramente la circuiteria presente nei microfoni a condensatore è maggiore di quella all'interno dei microfoni elettromagnetici dunque l'incidenza del rumore termico è maggiore nei primi anche in virtù del fatto che il segnale generato ha intensità molto minore rispetto ai microfoni elettromagnetici. La risposta del microfono rispetto al rumore interno viene misurata in dBV e un valore pari a 100 dBV è considerato accettabile. Parametro caratteristico del microfono e dello stadio di preamplificazione. · Massimo livello di pressione sonora misurabile: valore oltre il quale si ha l’insorgere di distorsione o danni irreversibili al microfono. · Campo dinamico: è costituito dalla differenza tra il massimo livello di pressione sonora misurabile ed il livello equivalente del rumore di fondo. · Caratteristica di direttività: un fattore importantissimo da considerare è la direzionalità del microfono, cioè la variazione nel suono che produce a seconda della direzione da cui esso proviene. La direzionalità esprime la capacità del microfono di captare più o meno bene i segnali in base alla direzione di provenienza, cioè il modo di variare della sensibilità con l’angolo di incidenza del fronte d’onda: • I microfoni non direzionali, o omnidirezionali o ancora panoramici, come il nome stesso suggerisce, rispondono in modo equivalente ai suoni provenienti da qualsiasi direzione. • I microfoni direzionali, captano solo i suoni che provengono da determinate direzioni ( rinforzano nella maggior parte dei casi i suoni che provengono frontalmente in funzione dell’angolo di provenienza dei suoni stessi), evitando così il fastidioso feedback ( in quanto non capteranno niente proveniente direttamente da eventuali casse/monitor posteriori o laterali ). Riuscire a scegliere un microfono adatto per tutti i tipi di misura è praticamente impossibile: avere una buona sensibilità va a scapito di una buona risposta in frequenza e viceversa. Esistono comunque dei microfoni di utilità generale che riescono ad avere dei compromessi fra i vari fattori. - 27 - 2.4 Diagrammi Polari I diversi criteri di costruzione dei microfoni possono essere impiegati per ottenere caratteristiche direzionali diverse. Sono infatti state messe a punto una serie di metodologie di costruzione che permettono di focalizzare la sensibilità di un microfono verso una o più direzioni specifiche. L'andamento della sensibilità a seconda della direzione di provenienza del suono viene descritto da un grafico denominato diagramma polare. Nella figura seguente vengono riportati i diagrammi polari più comuni con la loro denominazione, il centro rappresenta il microfono con il suo diaframma mentre attorno a questo viene riportato il valore della sensibilità al variare della direzione. La direzione viene misurata in gradi: 0° è il punto esattamente di fronte al diaframma mentre 180° indica la posizione opposta, cioè dietro al microfono. Ogni corona concentrica, a partire dalla più esterna, indica una perdita di 3 dB. Utilizzando i Diagrammi Polari è possibile effettuare una classificazione in funzione del campo sonoro captato: Circolare/Ominidirezionale: il microfono è egualmente sensibile in tutte le direzioni dello spazio. Un suono viene riprodotto con la stessa accuratezza da qualsiasi direzione provenga. Cardioide: il nome deriva dalla linea a forma di cuore del diagramma. In questo caso i suoni provenienti da sono drasticamente attenuati. Una nota riguardo i cardioidi: se la sorgente sonora è ravvicinata, essi enfatizzeranno le basse frequenze. Bidirezionale (Figura a 8): in questo caso il microfono è in grado di captare al meglio i suoni provenienti sia da dietro - 28 - che davanti ma risulta poco sensibile ai suoni provenienti dalle direzioni laterali. Supercardioide: è simile al cardioide ma con caratteristiche di direzionalità accentuate. Tuttavia per stringere il diagramma anteriore bisogna accettare l'insorgenza di un piccolo lobo posteriore. Ciò implica un leggero aumento della sensibilità ai suoni provenienti da dietro. Ipercardioide: Come il supercardioide ma con caratteristiche di direzionalità ancora più accentuate. Nelle protesi digitali attuali è possibile, agendo su particolari parametri, regolare e selezionare il tipo di microfono in funzione delle caratteristiche di uso del paziente. 2.5 Sistemi Direzionali Esistono quattro approcci ( alternative ) di base per la costruzione di un sistema direzionale applicabile agli apparecchi acustici: 1) un microfono direzionale; 2) una microfono direzionale + un microfono omnidirezionale; 3) due microfoni omnidirezionali; 4) un array ( ordine/insieme ) di microfoni. Anche se il primo approccio abbia il vantaggio di essere il più semplice e il meno ingombrante, non si dovrebbe considerare in quanto non dà la possibilità di commutare nella maniera omnidirezionale. Infatti, una delle ragioni principali di perchè microfoni direzionali non hanno ottenuto una grossa popolarità in passato ( quando questi microfoni avevano - 29 - dimensioni ben più grandi rispetto alla tecnologia attuale ) era proprio per la mancanza di una maniera omnidirezionale ( quest’ultima in determinate situazioni è la scelta più appropriata ). Un insieme ( array ) di microfoni è un sistema estremamente direzionale e può realizzare un miglioramento nel rapporto segnale/rumore (SNR) di 12 dB ( However ). Inizialmente tali sistemi potevano essere montati esclusivamente in un apparato indossato al collo ( Fig. 18 ) o ancora nelle astine delle protesi ad occhiale ove c’era molto più spazio per la componentistica ( Fig. 19 ). Fig. 18: Array di microfoni apparato apparato da indossare al collo. Fig. 19: Astina di una protesi ad occhiale. Inoltre per la maggior parte degli individui, con perdita uditiva, la scelta e l’utilizzo di questi sistemi non era di fondamentale importanza se l’estetica era scarsa. Questo lascia i due approcci più comuni: omnidirezionale più direzionale (un termine coniato da Steve Thompson) e un sistema che utilizza 2 microfoni omnidirezionali. L'approccio omnidirezionale più direzionale ( Fig. 20 ) offre la possibilità di commutare e quindi scegliere il microfono da utilizzare, attivando l’uno o l’altro, in funzione dello scenario uditivo, ovviamente attivare uno dei due microfoni significa disattivare l’altro ( un solo microfono è in operazione ). Fig. 20: Sistema Omnidirezionale più Direzionale; la commutazione avviene manualmente. - 30 - L’utilizzo di 2 microfoni omnidirezionali ( Fig. 21 ) offrono la stessa possibilità di un sistema “ominidirezionale più direzionale”, ma con qualche vantaggio distintivo in più ( Thompson ), in quanto mediante un circuito elettronico che tratta i segnali, provenienti dai 2 microfoni omnidirezionali, si ottengono diversi patterns direzionali. Fig. 21: L’ uscita di 2 microfoni omnidirezionali, combinati elettricamente ed elettronicamente, rendono la caratteristica direzionale desiderata. Microfono Omnidirezionale: La Fig. 22 mostra un microfono omnidirezionale tipico. Il suono che entra provoca cambi di pressione nella camera anteriore e interna del microfono. Questi cambi di pressione causano la vibrazione del diaframma e quest’ultima produce un segnale elettrico analogico all’uscita del microfono. Questo segnale è poi trattato da un circuito elettronico. Poiché il segnale sonoro entrante può comprendere anche il rumore, per attenuarlo vengono, generalmente, utilizzati i microfoni direzionali ( Fig. 23 ). - 31 - Fig. 22: Microfono Omnidirezionale ( adattato da Thompson ). Infatti i microfoni direzionali agiscono come dei “sistemi di ritardo acustico” ( o delay network ): una volta entrato il suono, proveniente dalla direzione posteriore del microfono, incontra un sistema di ritardo che convoglia il suono in una serie di percorsi alternativi ritardandone l’arrivo al diaframma ( Fig. 24 ). Quando il suono ritardato giunge al diaframma, è invertito di fase rispetto al suono che, grazie alla diffrazione, è arrivato sulla parte anteriore del microfono. Questa situazione si traduce nell'annullamento dei due suoni, quello anteriore e quello posteriore ritardato che arriva in controfase. Dunque il suono posteriore viene eliminato o drasticamente attenuato. Fig. 23: Il Microfono Direzionale presenta 2 ingressi ( 2 aperture per l’entrata del suono ). Lo stesso sistema di ritardo agisce sul suono frontale: una parte di quest'ultimo va a sollecitare direttamente il diaframma, un'altra parte penetra nell’apertura posteriore e dopo il passaggio nel sistema di ritardo si presenta in fase al diaframma. Questo fa sì che i due segnali si sommino garantendo una riproduzione fedele del segnale frontale che viene in questo modo rinforzato. - 32 - Fig. 24: Propagazione dell’onda e sua interazione con il microfono direzionale. L'effetto di un microfono direzionale può essere replicato con due microfoni omnidirezionali sostituendo il ritardo meccanico, proprio dei sistemi direzionali, con un filtro elettronico che agisce sul microfono omnidirezionale posteriore ( Fig. 25): Fig. 25: Interazione di 2 microfoni omnidirezionali ( sistema multi-microfono direzionale ). Se il ritardo temporale elettronico del filtro coincide perfettamente con il ritardo dell’entrata del suono nel microfono anteriore i due segnali possono essere sottratti, perché in opposizione di fase, e quindi annullati. In entrambi i casi il sistema di ritardo interno è studiato in modo tale da far coincidere questo ritardo ( quello interno ) con il tempo d’arrivo dell'altra porzione di segnale in funzione della distanza delle 2 aperture ( la distanza tra le aperture è indicata come ritardo di tempo esterno ). Il rapporto tra il ritardo di tempo interno e il ritardo di tempo esterno viene definito Beta. Se Beta è uguale a 1 otteniamo un microfono CARDIOIDE ( così chiamato per la sua forma - Fig. 26 ). Variando uno dei due ritardi il rapporto cambia ed è possibile modificare le caratteristiche del microfono. Per esempio, riducendo il ritardo di tempo - 33 Fig. 26: Risposta Cardioide con ß = 1. interno ( è il solo che può essere cambiato in quanto il ritardo di tempo esterno è dato dalla distanza delle aperture dei microfoni che è quella di costruzione ) si ottiene un microfono Supercardioide ( Fig. 27 ). La Fig. 27, come appena detto, mostra un modello di Supercardioide e si osserva chiaramente che i suoni maggiormente attenuati sono quelli che provengono da un angolo compreso tra 90° e 270°. Inoltre, come più tentiamo di restringere la forma cardioide più Fig.27: Risposta Supercardioide con ß = 0,58 : i suoni provenienti da 125° e 235° sono maggiormente attenuati. notiamo l'insorgenza di un lobo posteriore. Ciò è dovuto al fatto che il sistema di ritardo non è in grado di cancellare correttamente suoni che provengono da una direzione con un angolo troppo piccolo rispetto alla direzione centrale. per Beta ≠ 1 ( Fig. 27 ) il segnale analizzato dipende sia dal ritardo esterno sia da quello interno; nel caso in cui Beta è tendente a zero il segnale dipende esclusivamente dal ritardo esterno e si ha la realizzazione del microfono Supercardioide. Utilizzando due microfoni ominidirezionali si ottiene una maggiore flessibilità, infatti dato l’accoppiamento di due microfoni è possibile variare il fattore Beta e ottenere, contrariamente ad un microfono direzionale dove il fattore Beta è predeterminato dal costruttore, le diverse modalità di acquisizione. La modalità omnidirezionale in presenza di un segnale sonoro in ingresso di bassa intensità si dimostra la migliore in quanto il rumore da attenuare non è molto. In questa modalità, il segnale proveniente dai due microfoni omnidirezionali viene intensificato addizionando i segnali. Ciò riduce efficacemente il rumore nel microfono di circa 3 dB, fornendo l’ottimizzazione del segnale in presenza di bassi livelli di intensità sonora del segnale in ingresso. - 34 - Tutti i sistemi direzionali, nonostante le implementazioni, subiscono degli “effetti collaterali” che portano ad attenuare le basse frequenze ( la spiegazione di tali effetti collaterali è complessa e va oltre lo scopo di questa tesi ). La perdita di sensibilità alle basse frequenze è peggiore nei microfoni che hanno, ovviamente, una distanza ridotta tra le aperture perché le basse frequenze presentano una lunghezza d’onda maggiore rispetto alle alte frequenze. La Fig. 28 mostra la risposta in frequenza di 2 sistemi differenti, uno con le aperture distanziate di 4 mm e l’altro con le aperture distanziate di 12 mm. Confrontando le risposte dei 2 sistemi si nota una riduzione di sensibilità di circa 10 dB a 500 Hz per il sistema che ha le aperture distanziate di 4 mm riducendo, così, significativamente il rapporto S/N. Fig. 28. Sfruttando la possibilità di agire sul fattore Beta è possibile regolarlo per migliorare il rapporto segnale/rumore. 2.6 Direzionalità Adattiva Multibanda Questi sistemi direzionali sono dei microfoni adattativi che funzionano con algoritmi sconosciuti e che riescono a modificarsi a seconda dei contesti. Quelli di ultima generazione sono eccezionali, lavorano in maniera diversa sulle varie bande e per le varie frequenze e a seconda della banda possono essere OMIDIREZIONALI su una banda e IPERCARDIODI su un’altra, CARDIODI sulla seguente e BIDIREZIONALI su un’altra ancora. Tutto ciò avviene a seconda della gamma frequenziale presente nell’ambiente o meglio fanno un’analisi spettrale ON-LINE dell’ambiente e decidono banda per banda qual è la configurazione - 35 - migliore del microfono per migliorare ed ottimizzare la percezione verbale del paziente. Parliamo della Direzionalità Adattiva Multibanda15 ( Fig. 29 ) che si avvale dell’uso di microfoni direzionali grazie ai quali si riesce a migliorare la comprensione del parlato nel rumore ( Walden, Surr & Cord, 2003 ). I microfoni direzionali attenuano il segnale proveniente dai lati e/o dalle spalle del portatore di protesi, conservando invece l’udibilità dei segnali percepiti di fronte. L’assunto sotteso a ciò è che l’utente si troverà probabilmente di fronte alla persona con la quale sta parlando e desidererà quindi udire preferibilmente quel segnale rispetto al segnale proveniente da altri interlocutori o dal rumore di fondo. Grazie a questo metodo, il miglioramento del rapporto voce/rumore è stato stimato ai 3-4 dB, quando segnale vocale e rumore vengono presentati in modi rappresentativi degli ambienti di ascolto tipici del mondo reale ( Alani, 2001; Wouters, Liniere & van Wieringen, 1999 ). Con la Direzionalità Adattiva16, l’apparecchio acustico decide automaticamente se selezionare una risposta omnidirezionale o direzionale, mediante il rilevamento dell’angolo di provenienza della sorgente di rumore predominante, e modificare automaticamente il diagramma polare così da fornire la massima attenuazione per quel dato suono ( Valente e Mispagel, 2004 ). 15 Questo sistema è stato considerato uno tra le 20 creazioni più importanti del 2005 per migliorare la qualità della vita dell’uomo. 16 La Direzionalità Adattiva ha lo scopo di consentire risposte polari adattive separate in ciascuna delle bande di frequenza esistenti ( Elko & Nguyen Pong, 1997, Massima Direzionalità ). Ciò consente ad esempio l’impiego della Modalità Omnidirezionale, soltanto nella banda di frequenza più bassa ( al di sotto dei 1000 Hz ) e il mantenimento delle altre bande indipendenti, di frequenza medio-alta, in cui è ripartita la direzionalità. - 36 - Fig. 29: Con la direzionalità adattativa il diagramma polare è continuamente aggiustato : per ogni canale di frequenza viene calcolato e attivato in pochi millisecondi il diagramma polare ottimale, ciò permette l'adattamento direzionale più favorevole per l'ambiente acustico ( da PHONAK – BIONICA DIGITALE ). 2.7 Come Valutare la Qualità di un Microfono Esistono molti metodi per misurare la prestazione di un microfono direzionale: · Rapporto Fronte-Retro: differenza ( in dB ) tra la sensibilità di un microfono a suoni provenienti a 180° e la sensibilità, dello stesso microfono, a suoni provenienti a 0°. · Indice di direttività ( DI ): differenza ( in dB ) tra la sensibilità del microfono a i suoni provenienti direttamente dalla parte anteriore cioè a 0° e la sua sensibilità a suoni provenienti da tutte le direzioni. · Delta I: rapporto tra la sensibilità di un microfono a suoni provenienti frontalmente in un angolo compreso tra 270° e 90° e la sua sensibilità a suoni provenienti posteriormente compresi in un angolo tra 90° e 270° . · AI/DI ( Indice di articolazione/Indice di Direttività ): media ponderata della comprensione del discorso in funzione della sensibilità del microfono. · Diagrammi polari di direzionalità. Ogni metodo può essere utilizzato misurando l’apparecchio acustico in campo libero o su di un manichino. È utile comprendere che gli apparecchi acustici attuano ogni elaborazione alla periferia, a monte della coclea, e quindi ogni decisione eminentemente centrale, quale, ad esempio prediligere soggettivamente l’ascolto e la comprensione di una voce rispetto o a scapito di un’altra, è preclusa17. Quindi non esiste “IL MICROFONO”, ma esistono una serie di sistemi che andrebbero adattati. 17 L’apparecchio non può “ricostruire” il segnale che la coclea distorce, può elaborarlo al fine di renderlo il più facile possibile da riconoscere, nonostante il degrado imposto dalla patologia. In questa logica quello che l’apparecchio cerca di fare è di “eliminare” continuamente tutti i segnali che in quel particolare momento non sono segnali vocali così che quello vocale arrivi “da solo” alla coclea, che comunque lo degraderà. - 37 - CAPITOLO III SPERIMENTALE 3.1 Descrizione del sistema (Binaural Recording Head Manikin and Measuring Microphones – MK1 CORTEX INSTRUMENTS ). - 38 - Per la sperimentazione è stato utilizzato un sistema formato da un manichino che riproduce le sembianze del busto di un corpo umano medio ( Fig. 30a ) e da un computer gestito da un software (VIPER) ( Fig. 30b ) che consente sia l’acquisizione dei segnali sonori sia l’elaborazione e l’estrazione di numerosi parametri psicoacustici che permettono di determinare la qualità del suono. Fig. 30b. Fig. 30a. La figura 30a mostra in maniera schematica la struttura del sistema. Il manichino riproduce abbastanza fedelmente le caratteristiche della parte superiore del corpo umano. In particolare la testa, i padiglioni auricolari, il collo e le spalle. Tale manichino consente di inclinare la testa rispetto al busto e l’intero busto rispetto al piano. Nelle due orecchie in sostituzione della membrana timpanica sono situati due microfoni di precisione da ½ di pollice che simulano l’orecchio medio ed interno. Il manichino è alimentato sia con batterie che tramite rete. Inoltre è possibile tramite un telecomando controllare le funzionalità previste per l’acquisizione a distanza. Il manichino poggia su di un supporto che contiene sia il sistema di polarizzazione dei microfoni sia l’elettronica di amplificazione dei segnali. Inoltre nella base è contenuto un DAT per la registrazione dei segnali, in questa maniera è possibile fare delle acquisizioni prescindendo dal computer. I segnali possono essere acquisiti da un computer mediante un opportuno software denominato VIPER. Questo consente sia di acquisire che di elaborare i segnali sonori provenienti dal manichino. - 39 - 3.1.1 Il VIPER comprende i moduli: 1. Sound Analysis Package VIPER BA: Questo modulo permette di registrare e riprodurre i segnali sonori; eseguire la determinazione dei livelli sonori e l’analisi spettrale (terzi di ottave ed FFT); filtraggio del segnale; analisi tonale. 2. PerceptualXplorer VIPER PX: Con questo modulo è possibile analizzare e modificare le componenti tonali del segnale mediante un editor ed inoltre risintetizzare i segnali sonori modificati. 3. Psychoacoustics Analysis VIPER PSY: Il modulo permette di determinare alcuni dei principali parametric psicoacustici legati alla percezione del suono quali : loudness, sharpness, roughness, fluctuation strength, tonality. 4. Sound Editor and Filter Software VIPER ED: È un editor sonoro evoluto che permette di effettuare numerose trasformazioni del segnale nel tempo quali : cut, copy, paste, delete, trim, fade-in/fade-out, change level, hearing-based play back, sample rate converter, import/export of sound files etc. permette di implementare numerosi tipi di filtri numerici. Inoltre permette di eseguire delle trasformazioni del segnale direttamente sullo spettrogramma permettendo di modificare parti del sonogramma. I segnali così modificati possono essere riprodotti. 5. Speech Quality-Analysis VIPER SQ: Questo modulo agendo sullo spettrogramma permette di valutare indici quali l’Auditory Distance Spectrogram che permettono di quantificare la qualità del parlato. E’ possibile la taratura dell’intera catena di acquisizione mediante dei calibratori. 3.2 FFT (Fast Fourier Transform) Per descrivere in maniera non ambigua un segnale sonoro i parametri, ampiezza e frequenza, non sono sufficienti. - 40 - Nel XVIII secolo il matematico francese Fourier elaborò un modello matematico noto appunto come Analisi di Fourier. Tale metodo si basa su principio generale che ogni onda periodica complessa può essere scomposta e analizzata come una serie di onde periodiche semplici. Queste componenti semplici dell’onda periodica complessa vengono dette armoniche del segnale complesso,e il loro insieme è chiamato spettro. Un postulato molto importante dell’analisi di Fourier è che le frequenze delle armoniche sono i multipli interi della frequenza del segnale complesso. La frequenza della prima armonica, che per definizione è uguale a quella del segnale complesso,è chiamata frequenza fondamentale (F0 ). La base della FFT , allora, è il fatto che ogni segnale può essere scomposto in una serie di sinusoidi, ciascuna delle quali possiede una ben determinata frequenza, ampiezza e fase (teorema di Fourier). Bisogna notare che la trasformata di Fourier non è l'unica esistente. Esistono altre trasformate in grado di scomporre un segnale in una serie di componenti dello stesso tipo. Quella di Walsh, per esempio, scompone un segnale in una serie di onde quadre e presenta dei vantaggi dal punto di vista della sintesi (le onde quadre sono molto più facili da generare rispetto alle sinusoidi). La trasformata di Fourier, però, evidenzia alcune caratteristiche interessanti: · Gli elementi base della scomposizione (le sinusoidi) sono onde prive di armonici. Possono quindi essere considerate come "i mattoni" mediante la cui somma si crea un suono complesso. · In effetti, questa proprietà è verificabile in quanto, sommando le suddette sinusoidi, si ottiene il suono di partenza. · È vero che la stessa cosa accadrebbe anche sommando le onde generate da una qualsiasi altra trasformata, ma la scomposizione basata su Fourier ha una maggiore evidenza percettiva. È più molto facile farsi una immagine di un suono come somma di elementi percettivamente semplici, come le sinusoidi, rispetto alla somma di elementi complessi. Con la FFT, quindi, possiamo analizzare lo spettro di un suono e vedere le sue componenti, siano esse armoniche o meno, passando dalla visione della forma d'onda, con il tempo sull'asse X, alla visione in frequenza - 41 - (frequenze sull'asse X). Proprio per questo è corretto dire che, con la FFT, si passa dal dominio del tempo a quello della frequenza. Il principale parametro di controllo della FFT è la sua risoluzione che è determinata dal numero di campioni (detti "punti") su cui viene effettuata. Come vedete nella figura seguente, le componenti (o parziali) della nota di pianoforte di cui sopra sono via via più evidenti con l'aumentare del numero di punti. Naturalmente un maggior numero di punti significa anche un maggior tempo di calcolo. Si ha, quindi, un passaggio dal dominio del tempo a quello delle frequenze. Come tale, però, la FFT è una analisi istantanea che vale solamente in quel punto del suono. Dato che il suono è in evoluzione, potete considerare una singola FFT come un fotogramma di un film. Dal punto di vista matematico la FFT è un procedimento che esprime una funzione come somma di sinusoidi. Dal punto di vista acustico può benissimo essere vista come un più semplice e comprensibile banco di filtri che suddivide l'intero spazio delle frequenze da 0 a SR/2 in tante bande quanti sono i punti diviso. Una FFT a 1024 punti, quindi, equivale a suddividere il campo frequenziale in 512 bande. Si può quindi considerare la FFT come un sistema che misura l'energia contenuta in ognuna di queste bande. Se, per es., si lavora con 2048 punti, è come se si dividesse l'intero spazio - 42 - frequenziale fra 0 e SR/2 in 2048 / 2 = 1024 parti. Di conseguenza, con SR = 44100, ogni banda sarebbe larga mediamente circa 22050 / 1024 = 21.53 Hz. Vedendo la cosa in questo modo, si capisce anche perché la risoluzione in frequenza aumenta con il numero dei punti e quindi anche perché, nella figura qui sopra, con 256 punti non si isolano le componenti. 22050 / 128 = circa 172 Hz, che è troppo per isolare delle singole sinusoidi. La situazione migliora con 512 punti (risoluzione circa 86 Hz), è buona con 2048 (ris. circa 22 Hz) e ottima con 16384 punti (ris. circa 2.69 Hz). La seconda cosa da ricordare è che, come già detto, l'analisi è istantanea e vale, cioè, solo per l'istante in cui è stata effettuata. Il punto di analisi è quello mediano rispetto al segmento analizzato. Se abbiamo un suono con SR = 44100 e facciamo una analisi su 4096 punti che a 44100 corrispondono quasi a 1/10 di sec., l'istante a cui l'analisi si riferisce è il centro di quei 4096 campioni. Prima e dopo, il suono potrebbe essere diverso. È quindi errato fare una analisi e pensare "in questo suono troviamo queste componenti". Il concetto esatto è "in questo suono, in questo istante, troviamo queste componenti". In effetti, il segmento su cui si fa l'analisi viene dapprima isolato e poi moltiplicato per un inviluppo a forma di campana (con il massimo al centro) e trasformato come nella figura a fianco. Questo per evitare che il troncamento alle estremità influenzi il risultato. L'effetto della finestra è quello di dare un peso maggiore al centro del segmento e mostrare lo spettro con maggiore pulizia. Esistono vari tipi di finestre (Hamming, Blackmann, etc) che si differenziano per la pendenza e la forma dei lati, il cui effetto su frequenza e ampiezza è ridotto, ma è più evidente sulla fase delle componenti risultanti, quindi per il momento lo - 43 - possiamo ignorare. Normalmente si usano finestre di Hamming o Blackmann. 3.3 Sonogramma e Spettrogramma Ora il nostro problema è: se la FFT è istantanea, come si può creare una mappa completa dell'evoluzione di un suono nel tempo? La risposta è semplice: per poter ottenere una tale mappa, occorre fare una serie di singole analisi a intervalli regolari per tutta la durata dell'evento sonoro. Otteniamo così un sonogramma ( Fig. 31a ) in cui abbiamo il tempo sull'asse X, le frequenze sull'asse Y e ogni componente è rappresentata da una linea che si estende nel tempo, il cui colore è tanto più forte quanto è maggiore l'ampiezza. Poiché la rappresentazione è sul piano, mentre le dimensioni da rappresentare sono 3 (frequenze, tempo e ampiezza), per la terza si deve ricorrere al colore. Lo schema dei colori può essere diverso, ma l'importante è che sia in grado di evidenziare le differenze di ampiezza creando con lo sfondo un contrasto tanto maggiore quanto più l'ampiezza è elevata. Fig. 31a. Fig. 31b. Con lo stesso procedimento si può ottenere uno spettrogramma ( Fig. 31b ). Si tratta di una rappresentazione 3D in cui abbiamo ancora le frequenze sull'asse X, il tempo sull'asse Y, mentre le ampiezze sono rappresentate come altezze sull'asse Z. In tal modo è possibile distinguere chiaramente anche l'inviluppo dei singoli armonici. Ovviamente in quest'ultimo caso la colorazione è accessoria e - 44 - non del tutto necessaria, però. se è sensata, aiuta, così come aiuta il fatto che lo spettrogramma possa essere ruotato e studiato da diverse prospettive. Nel caso del sonogramma, dobbiamo anche tener conto della velocità con cui il suono cambia nel tempo. I suoni emessi dagli strumenti musicali variano abbastanza lentamente e con una certa gradualità, tranne che nel momento dell'attacco in cui possono esserci anche variazioni molto veloci (i cosiddetti "transitori" o "transienti"). In natura, però, possiamo trovare anche suoni che, nel corso della loro vita, esibiscono variazioni molto complesse e veloci. In tal caso, a volte, la ricerca di una maggiore risoluzione in frequenza, aumentando il numero dei punti e quindi la lunghezza del segmento su cui si fa l'analisi, può contrastare con la visione di variazioni temporali troppo veloci. La risoluzione in frequenza contrasta con la risoluzione temporale. Ragioniamo: se ho un suono campionato a 44100 e la mia finestra di analisi è lunga 16384 punti, essa dura 16384 / 44100 = 0.37 secondi, il che significa che ogni variazione che dura meno ha buone probabilità di risultare malamente definita in senso temporale. La cosa è mitigata solo dal fatto che, nella serie di analisi per creare il sonogramma, le finestre delle varie analisi vengono parzialmente sovrapposte. Comunque, in questi casi, una FFT con pochi punti seguirà meglio il fenomeno rispetto a una con più punti, anche se quest'ultima produce risultati più definiti in frequenza. 3.4 Protesi acustica utilizzata nei test La protesi acustica utilizzata durante i test è la Destiny 400 Dir BTE ( Fig. 32 ), dotata di 4 canali e 8 bande, 4 memorie programmabili, una bobina ad induzione ed un rilevatore della direzionalità del parlato. Il Destiny™ 400 è dotato di un elaboratore di segnale con circuito ad Fig. 32 architettura aperta caratterizzato dalla potenza intuitiva della tecnologia nFUSION. Questo innovativo sistema di - 45 - monitoraggio, della Casa Starkey, sostituisce la commutazione meccanica con la nanotecnologia, capace di attivare automaticamente le caratteristiche fornendo un’esperienza acustica molto più naturale. 3.4.1 Funzionalità standard del Destiny 400 Dir 1. L’Active Feedback Intercept (AFI – Rilevamento attivo Feedback): Un sistema di eliminazione del feedback che utilizza 16 sottobande. 2. L’Environmental Adaptation: E’ un sistema avanzato con soppressione di rumore che automaticamente controlla e classifica le diverse tipologie di rumori ambientali. 3. Directional Speech Detector (DSD – Rilevatore direzionale del parlato): Offre indici di direzionalità best-in-class e funziona fornendo una risposta dinamica superiore anche negli ambienti più problematici. Tale sistema migliora la comprensione del parlato nel rumore in quanto il sistema direzionale dinamico garantisce che l’apparecchio sia sempre nella modalità di ascolto ottimale senza la necessità di regolazioni manuali. 4. Acoustic Signatur (Rilevatore ambientale): È un sistema intuitivo che effettua un’ Analisi Spettrale OnLine dei diversi ambienti affinché venga configurata la risposta migliore per fornire un comfort d’ascolto ottimale ( gestione del guadagno). 5. Autocoil: La Bobina telefonica programmabile telefonica offre una risposta automatica o, a scelta, attivabile tramite pulsante. 3.4.2 Caratteristiche elettroacustiche del Destiny™ 400 Dir - 46 - a. Guadagno di picco: 70 DB b. Picco OSPL : 90 DB c. Gamma di FREQUENZA: 200 Hz ÷ 6400 Hz d. Distorsione Armonica Totale: a 500 Hz THD% è 3%; a 800 Hz THD% 1%; a 1600 Hz THD% 1%; e. Rumore ingresso equivalente: <25 DB f. Tempo di attacco: <50 ms - Tempo di rilascio z200 ms (modo Test) Tali caratteristiche corrispondono alle Normative ANSI S3.22. 3.5 Acquisizione e Analisi dei Dati Le prove sono state svolte in una stanza di circa 10 m2, posizionando il manichino ( MK1 ) al centro della stessa come in Fig. 33a e 33b, gli altoparlanti disponibili erano 4 ed erano collocati nell’ambiente secondo queste angolazioni: 0°, 60°, 180°, 300° ( 0° è il punto frontale al manichino e si fissano le altre angolazioni procedendo in senso antiorario – vedi immagini ). Fig. 33a: Altoparlante a 0°; Altoparlante a 300°. Fig. 33b: Manichino a centro stanza e altoparlante a 180°. Queste prove sono state effettuate per verificare l’efficacia del Sistema Direzionale, effettuando un confronto tra la Modalità Omnidirezionale e la Modalità Direzionale, inviando materiale verbale bisillabico ( parole inviate: molti, stanza, grande, giallo, lire ) ad una intensità pari a 15 dB HTL. Il test è stato effettuato nell’audiometria sperimentale dell’Unità di Audiologia dell’Università Federico II di Napoli. - 47 - 3.5.1 Acquisizione dei segnali provenienti da diverse angolazioni La protesi acustica Destiny 400 è stata applicata all’orecchio destro ( canale 2 del manichino; l’orecchio sinistro dello stesso, o anche canale 1, è mantenuto libero per determinarne il diagramma polare ) e si è proceduto alla registrazione audio ( acquisizione ) nel modo seguente ( Fig. 34 ): Con Protesi configurata in Modalità DIREZIONALE 1. Prova Microfono 0° Segnale 35 dB, senza rumore 2. Prova Microfono 30° Segnale 35 dB, senza rumore 3. Prova Microfono 60° Segnale 35 dB, senza rumore 4. Prova Microfono 90° Segnale 35 dB, senza rumore 5. Prova Microfono 120° Segnale 35 dB, senza rumore 6. Prova Microfono 150° Segnale 35 dB, senza rumore 7. Prova Microfono 180° Segnale 35 dB, senza rumore 8. Prova Microfono 210° Segnale 35 dB, senza rumore 9. Prova Microfono 240° Segnale 35 dB, senza rumore 10. Prova Microfono 270° Segnale 35 dB, senza rumore 11. Prova Microfono 300° Segnale 35 dB, senza rumore 12. Prova Microfono 330° Segnale 35 dB, senza rumore Con Protesi configurata in Modalità OMNIDIREZIONALE 1. Prova Microfono 0° Segnale 35 dB, senza rumore 2. Prova Microfono 30° Segnale 35 dB, senza rumore 3. Prova Microfono 60° Segnale 35 dB, senza rumore 4. Prova Microfono 90° Segnale 35 dB, senza rumore 5. Prova Microfono 120° Segnale 35 dB, senza rumore 6. Prova Microfono 150° Segnale 35 dB, senza rumore 7. Prova Microfono 180° Segnale 35 dB, senza rumore 8. Prova Microfono 210° Segnale 35 dB, senza rumore 9. Prova Microfono 240° Segnale 35 dB, senza rumore - 48 - 10. Prova Microfono 270° Segnale 35 dB, senza rumore 11. Prova Microfono 300° Segnale 35 dB, senza rumore 12. Prova Microfono 330° Segnale 35 dB, senza rumore Fig. 34 3.5.2 Analisi e Verifica dei Dati Il programma utilizzato per la verifica dei dati è il VIPER di cui il modulo “Sound Analysis Package VIPER BA”, per la determinazione dei livelli sonori e l’analisi spettrale (FFT) del segnale audio (Fig. 36a, Fig. 36b, Fig. 36c) . Di seguito diamo una rappresentazione grafica, così come da programma (VIPER), delle acquisizioni effettuate con le quali è stato possibile costruire i Diagrammi Polari dell’orecchio senza protesi, della protesi in modalità omnidirezionale e della protesi in modalità direzionale. - 49 - Fig. 36a: Le immagini sono riferite all’acquisizione del segnale a 0° senza protesi. Fig. 36b: Le immagini sono riferite all’acquisizione del segnale a 0°con protesi in modalità omnidirezionale. Fig. 36c: Le immagini sono riferite all’acquisizione del segnale a 0° con protesi in modalità direzionale. Dai grafici sono stati ricavati i massimi livelli di picco ( in dB ) e più in particolare abbiamo tenuto conto del picco massimo raggiunto dalla seconda parola presentata ( STANZA ) durante il test. Possiamo scrivere quanto segue: Con Protesi configurata in Modalità Direzionale 1. 0° = 50 dB 2. 30° = 50 dB 3. 60° = 50 dB (± 2) - 50 - 4. 90° = 47 dB 5. 120° = 35 dB 6. 150° = 41 dB 7. 180° = 47 dB 8. 210° = 41 dB 9. 240° = 35 dB 10. 270° = 47 dB 11. 300° = 50 dB (± 2) 12. 330° = 50 dB Con Protesi configurata in Modalità Omnidirezionale 1. 0° = 50 dB 2. 30° = 50 dB 3. 60° = 50 dB 4. 90° = 50 dB 5. 120° = 50 dB 6. 150° = 50 dB 7. 180° = 50 dB 8. 210° = 50 dB 9. 240° = 50 dB 10. 270° = 50 dB 11. 300° = 50 dB 12. 330° = 50 dB (tutte le angolazioni hanno uno scarto medio di ± 3 dB) Orecchio senza Protesi 1. 0° = 35 dB 2. 30° = 35 dB 3. 60° = 35 dB 4. 90° = 35 dB 5. 120° = 35 dB - 51 - 6. 150° = 35 dB 7. 180° = 35 dB 8. 210° = 35 dB 9. 240° = 35 dB 10. 270° = 35 dB 11. 300° = 35 dB 12. 330° = 35 dB (tutte le angolazioni hanno uno scarto medio di ± 1 dB) 3.5.3 Valutazioni Finali · RAPPORTO FRONTE ( 0° )/ RETRO ( 180° ) - MICR. DIREZ. : 50 – 47 = 3 dB Questa differenza sta a significare che il segnale posteriore è attenuato di ½ rispetto al segnale frontale e ciò vuol dire che i segnali posteriori sono abbattuti al fine di migliorare la conversazione frontale. · INDICE DI DIRETTIVITA’ - MICR. DIREZ : 0° - 30° = 50 – 50 = 0 dB 0° - 60° = 50 – 50 = 0 dB 0° - 90° = 50 – 47 = 3 dB 0° - 120° = 50 – 35 = 15 dB 0° - 150° = 50 – 41 = 9 dB 0° - 180° = 50 – 47 = 3 dB 0° - 210° = 50 – 41 = 9 dB 0° - 240° = 50 – 35 = 15 dB 0° - 270° = 50 – 47 = 3 dB 0° - 300° = 50 – 50 = 0 dB 0° - 330° = 50 – 50 = 0 dB - 52 - Valutare l’Indice di Direttiva vuol dire capire come la caratteristica direzionale si comporta nelle diverse direzione rispetto alla posizione frontale. Ci dà un’idea dell’attenuazione a seconda dell’angolazione. · DIAGRAMMI POLARI Per la costruzione del Diagramma Polare si riporta ogni singolo valore trovato, e corrispondente ad una precisa direzione ( angolazione ), su un grafico ( formato da cerchi concentrici ) che rappresenta il campo sonoro dell’ambiente in questione ( Fig. 37 ), otteniamo quanto segue: Fig. 37: Diagrammi Polari ricavati dalle prove. - 53 - CONCLUSIONI In base alle indagini ed alle misurazioni effettuate è possibile concludere che il sistema direzionale, oggetto del nostro studio, ha una caratteristica Supercardioide e non è utilizzato per simulare il campo sonoro dell’orecchio umano. Dal diagramma polare, infatti, si evidenzia che è il sistema Omnidirezionale ad avere un andamento similare dell’orecchio umano e quindi la risposta direzionale è quella che può ottimizzare l’acquisizione del segnale dalla parte anteriore del soggetto migliorando così il rapporto voce/rumore. In questo modo si privilegia la conversazione frontale del soggetto protesizzato rispetto a quella posteriore, fonte competitiva al segnale principale. In definitiva, sia i sistemi Direzionali che quelli convenzionali Omnidirezionali risultano essere tecnologie valide che devono essere sfruttate in funzione dello “scenario acustico”. Tuttavia è raccomandabile l’utilizzo di sistemi Direzionali in quegli ambienti di ascolto difficili dove si avverte la necessità di capire un discorso in presenza di rumore, viceversa un sistema Omnidirezionale risulta essere il più adatto in ambienti silenziosi in quanto si riduce il rumore del circuito. - 54 - Bibliografia 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. BIONICA DIGITALE PHONAK: com028-0084xxbackgroundstory_savia RIVISTA TECNICO-SCIENTIFICA L’AUDIOPROTESISTA Speciale Congresso pag. 74, Autore: Marco Ricci-EuroSonit srl; rivista T.S. RIVISTA L’AUDIOPROTESISTA anno II-n.4-luglio 2004 pag. 37 Digital Signal Processing -DSP- “architettura aperta”, Autore: Francesco Marzulli Dipartimento Elettrotecnica ed Elettronica-Politecnico di Bari, Mario Refice Dipartimento di Psicologia Università di Bari, Michelina Savino e Fabrizio Zito Dipartimento di Oftalmologia e ORL Università di Bari. L’Adattamento degli Apparecchi Acustici 2a Edizione – OTICON “Capitolo 9: La Compressione pag.1”, Autori: ing. Umberto Cotrona – Prof. Walter Livi. RIVISTA TECNICO- SCIENTIFICA L’AUDIOPROTESISTA anno IIn.4-Luglio 2004 pag. 28, - L’ESPANSIONE Autore: Lorenzo Notarianni Audioprotesista. “NEWS FROM OTICON APRILE 2003” - Noise Reduction in Hearing Aids: What Works and Why - CANCELLAZIONE SPETTRALE (Donald J. Schum, Ph.D. - Vice President, Audiology & Professio Relations Oticon, Inc..). RIVISTA TECNICO- SCIENTIFICA L’AUDIOPROTESISTA anno IIn.5-dicembre2004INDICE DI ARTICOLAZOINE, Autore : Maurizio Clerici, 2004. RIVISTA TECNICO- SCIENTIFICA L’AUDIOPROTESISTA speciale Congresso Sorrento -INDICE DI MODULAZIONE Spectral Enhacement, Autore: Tempasta Ruggero, 2003; Gianluca Vivarelli, 2003. RIVISTA TECNICO- SCIENTIFICA L’AUDIOPROTESISTA anno In.2-ottobre 2003 Variabile predittiva di resa protesi: introdotta dal prof. Gatehouse, 2003. NEWS FROM OTICON: Maximising the Voice to Noise Ratio (VNR) through Voice Priority Processing (Mark C. Flynn, PhD Oticon A/S, Denmar). Valente M, Sweetow R & May A: Using microphone technology to improve speech recognition. In S Kochkin & KE Strom’s High Performance Hearing Solutions (V3), Suppl to Hearing Review; 6 (1): 1013. Thompson S: Dual Microphones or directional-plus-omni: Which is best? In S Kochkin & KE Strom’s High Performance Hearing Solutions (V3), Suppl to Hearing Review; 6 (1): 31-35. Killion MC: The SIN report: Circuits haven’t solved the hearing-in-noise problem. Hear Jour 1997; 50 (10): 28-34. - 55 - 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. May A: Multi-Microphone Instruments, DSP and Hearing-in-Noise. Hearing Review 1998; 5 (7): 42-45. Preves D: Directional microphone use in ITE hearing instruments. Hearing Review 1997; 4 (7): 21-27. Multiple omnidirectional microphone cartridges as directional microphones: “Application of Multiple Microphones in Hearing Aids”, Knowles Electronics Application Note, S-911-0897. Thompson, S., “Directional Patterns Obtained from Dual Microphones”, Knowles Electronics Engineering Report, October 1997 Fixed directional microphones: Bauer, B., “Microphone Directivity”, Transactions of the IRE-PGA, July 1952,10-20. Valente, M., Hearing Aids: Standards, Options, and Limitations, 1996, 142-144 Madaffari, P., “Directional Matrix Technical Report”, Knowles Electronics Engineering Report, 1983 Directivity Index: Bauer, B., “Microphone Directivity”, Transactions of the IRE-PGA, July 1952,10-20. Articulation-Index Weighted Directivity-Index: Roberts., M. & Schulein, R., “Measurement and Intelligibility Optimization of Directional Microphones for Use in Hearing Aid Devices”, 103rd AES Convention, 1997 Real-world performance and measurement: Preeves, D., “Directional Microphone Use in ITE Hearing Instruments”, The Hearing Review, July 1997, 21-27. Killion, M., et. al., “Real-World Performance of an ITE Directional Microphone”, The Hearing Journal, April 1998. Agnew J, Block M. HINT thresholds for a dual-microphone BTE. Hear Rev 1997;4:26–30. Amlani AM. Efficacy of directional microphone hearing aids: a metaanalytic perspective. J Am Acad Audiol 2001;12:202–14. Bilsen F, Soede W, Berkhout AJ. Development and assessment of two fixed-array microphones for use with hearing aids. J Rehabil Res Dev 1993;30:73–81. Gennum Corp. Directional hearing aid tutorial (CD-ROM). Burlington: Gennum Corp.; 2000 – www.gennum.com. Gravel JS, Fausel N, Liskow C, Chobot J. Children’s speech recognition in noise using omni-directional and dual-microphone hearing aid technology, Ear Hear 1999;20:1–11. Hoffman MW, Trine TD, Buckley KM, Van Tasell DJ. Robust adaptative microphone array processing for hearing aids: realistic speech enhancement. J Acoust Soc Am 1994;96:759–70. Killion M. SNR loss: I can hear what people say, but I can’t understand them. Hear Rev 1997;4. Killion M, Schulein R, Christensen L, Fabry D, Revit L, Niquette P, Chung K. Real-world performance of an ITE directional microphone. Hear J 1998;51:24–38. - 56 - 26. 27. 28. 29. 30. 31. 32. 33. 34. 35. 36. 37. Kompis M, Dillier N. Noise reduction for hearing aids: combining directional microphones with an adaptive beamformer. J Acoust Soc Am 1994;96:1910–3. Kuhn GF. Some effects of microphone location, signal bandwidth, and incident wave field on the hearing aid input signal. In: Studebaker GA, Hochberg I. Acoustical factors affecting hearing aid performance. Kühnel V, Margolf-Hackl S, Kiessling J. Multi-microphone technology for severe-to-profound hearing loss. Scand Audiol Suppl 2001;30 Supp 52:65–8. Kuk F, Baekgaar L, Ludvigsen C. Design considerations in directional microphones. Available at: www.hearingreview.com/Articles.ASP?articleid=H0009F06 (Page consulted in January 2001). Kuk FK, Kollofski C, Brown S, Melum A, Rosenthal A. Use of a digital hearing aid with directional microphones in school-aged children. J Am Acad Audiol 1999;10:535–48. Labonté MP. Les effets de directivité des microphones à effet d’annulation des aides de correction auditive sur la reconnaissance de la parole en classe [project report]. Montréal (Québec): Université de Montréal; 2000. Leeuw AR, Dreschler WA. Advantages of directional hearing aid microphones related to room acoustics. Audiol 1991;30:330–4. Lurquin P, Rafhay S. Intelligibility in noise using multimicrophone hearing aids. Acta Otolaryngol Belg 1996;50:103–9. May AM, Larsen CB, Warland A. Multi-microphone instruments, DSP and hearing-in-noise. Tech Topic 2000:1–423. Mueller HG, Grimes AM, Jerome JJ. Performance-intensity functions as a predictor for binaural amplification. Ear Hear 1981;2:211–4. Novick ML, Bentler RA, Dittberner AD, Flamme GA. Effects of release time and directionality on unilateral and bilateral hearing aid fittings in complex sound fields. J Am Acad Audiol 2001;12:534–44. Pumford JM, Seewald RC, Scollie SD, Jenstad LM. Speech recognition with in-the-ear and behind-theear dual-microphone hearing instruments. J Am Acad Audiol 2000;11:23–35. Preves DA, Sammeth CA, Wynne MK. Field trial evaluations of a switched directional/omnidirectional in-the-ear hearing instrument. J Am Acad Audiol 1999;10:273–84. Ricketts T. Directivity quantification in hearing aids: fitting and measurement effects. Ear Hear 2000a;21:45–58. Ricketts T. Impact of noise source configuration on directional hearing aid benefit and performance. Ear Hear 2000b;21:194–205. Ricketts T. The impact of head angle on monaural and binaural performance with directional and omnidirectional hearing aids. Ear Hear 2000c;21:318–28. Ricketts T, Dhar S. Comparison of performance across three directional hearing aids. J Am Acad Audiol 1999;10:180–9. Ricketts T, Mueller HG. Making sense of directional microphone hearing aids. Am J Audiol 1999;8:117–27. Ricketts T, Lindley G, Henry P. Impact of compression and hearing aid style on directional hearing aid benefit and performance. Ear Hear 2001;22:348–61. - 57 - 38. 39. 40. 41. 42. Saunders GH, Kates JM. Speech intelligibility enhancement using hearingaid array processing. J Acoust Soc Am 1997;102:1827–37. Valente M, Fabry DA, Potts, LG. Recognition of speech in noise with hearing aids using dual microphones. J Am Acad Audiol 1995;6:440–9. Walden BE, Surr RK, Cord MT, Edwards B, Olson L. Comparison of benefits provided by different hearing aid technologies. J Am Acad Audiol 2000;11:540–60. Wouters J, Litière L, Van Wieringen A. Speech intelligibility in noisy environments with one- and twomicrophone hearing aids. Audiol 1999;38:91–8. Audiology Insight_IT N.2, 2002(Edizione Speciale); 1, 2003; 1, 2004; 2,2004:“ Progettazione di software per apparecchi acustici- Feedback acustico: Il problema e alcune soluzioni- Elaborazione dei segnali in tempo reale e conseguenti vantaggi per gli ipoacusici- Non è meglio avere più canali?”-“Ventilazioni e Apparecchi Digitali”-“NEO Nuove tendenze nel Digitale”. - 58 -