I nostri cinque sensi collaborano assai più di quanto credevamo. Ciò
by user
Comments
Transcript
I nostri cinque sensi collaborano assai più di quanto credevamo. Ciò
neuroscienze I supersensi del cervello I nostri cinque sensi collaborano assai più di quanto credevamo. Ciò che udiamo dipende pertanto anche dalle cose che vediamo o che percepiamo con gli altri sensi A di Lawrence D. Rosenblum lla fine degli anni settanta, l’FBI arruolò Sue Thomas e altre sette persone non udenti come lei perché analizzassero il disegno delle impronte digitali. L’ente federale era convinto che svolgendo questo compito notoriamente minuzioso le persone sorde sarebbero rimaste concentrate più a lungo. Ma Sue trovò l’operazione terribilmente monotona, lamentandosene più volte con i superiori e chiedendo di rinunciare all’incarico. Il suo responsabile la convocò, ma non per licenziarla. Anzi, in un certo senso fu promossa. Le mostrò un video muto di due presunti criminali intenti a conversare e le chie- se di decifrare il labiale. Sue interpretò facilmente le parole dei sospettati, che facevano parte di una rete di gioco d’azzardo clandestino. E così cominciò la carriera di Sue, la prima esperta lettrice labiale in forza all’FBI. Le sue abilità si erano affinate grazie a una vita passata a comunicare leggendo le labbra. Eppure è un talento che abbiamo tutti, e più spiccato di quanto crediamo. In effetti, la nostra capacità di capire le parole diminuisce se non possiamo vedere le labbra dell’interlocutore, per esempio negli ambienti rumorosi o quando la persona ha un marcato accento estraneo. Imparare a percepire le parole con gli occhi, oltre che con le orecchie, è importante per uno sviluppo normale del linguaggio. Per questa ra- Victoria Ling In breve 64 Le Scienze 535 Marzo 2013 I neuroscienziati hanno considerato a lungo il cervello come una specie di coltellino svizzero, in cui le differenti regioni erano dedicate alle diverse percezioni www.lescienze.it sensoriali, come la vista, l’udito, l’olfatto, il gusto, il tatto. Tuttavia negli ultimi trent’anni la psicologia e le neuroscienze hanno rivelato che il cervello è un organo profondamente multesensoriale, che mescola di continuo le informazioni dai diversi sensi. La rivoluzione multisensoriale, oltre a cambiare il modo in cui viene studiato il cervello, suggerisce nuove strade per aiutare le persone cieche e quelle sorde, suggerendo inoltre perfezionamenti ai software di riconoscimento verbale. Le Scienze 65 Sillabe silenziose Uno dei primi e più solidi esempi conosciuti di percezione multisensoriale è l’effetto McGurk, osservato per la prima volta nel 1976 da Harry McGurk e John MacDonald. Se guardate il video di una persona che pronuncia ripetutamente in silenzio la sillaba «ga» e contemporaneamente udite l’audio in cui quella stessa persona pronuncia la sillaba «ba», sentirete la sillaba «da». La sillaba silenziosa «ga» cambia la vostra percezione della sillaba percepibile «ba» perché il cervello integra quanto il vostro corpo ha udito e visto. L’effetto McGurk funziona in tutte le lingue e continua a funzionare anche dopo 25 anni che lo si studia… La parola che udiamo è influenzata anche dal parlato percepito sotto le nostre dita. Nel 1991 Carol Fowler, all’epoca al Darmouth College, ha chiesto ad alcuni volontari di provare la tecnica Tadoma, che consiste nell’interpretare il discorso di una persona che ci sta parlando mettendo le nostre dita sulle sue labbra, sulle guance e sul collo. Era una tecnica a cui si affidavano molte persone sordo-cieche prima che esistessero gli impianti cocleari, tra cui Helen Keller, la celebre scrittrice, attivista e insegnante statunitense, vissuta tra il 1880 e il 1968, sorda e cieca dall’età di 19 mesi. Dall’esperimento è emerso che le sillabe percepite con il tatto dai volontari cambiavano la loro interpretazione di altre sillabe provenienti dai vicini altoparlanti. Nel 1997 Gemma Calvert, allora all’Università di Oxford, individuò le aree del cervello più attive durante la lettura labiale. Volontari inesperti in questa forma lettura leggevano le labbra di un volto silenzioso che scandivano lentamente i numeri da uno a nove. Calvert e colleghi riscontrarono che la lettura del labiale attivava sia la corteccia uditiva – la regione cerebrale specializzata nei suoni – sia le regioni cerebrali correlate che, come sappiamo, 66 Le Scienze Percezione Lawrence D. Rosenblum è docente di psicologia all’Università della California a Riverside, e autore di Lo straordinario potere dei nostri sensi, Bollati Boringhieri, Torino, 2011. cervello va ad aggiungersi alle conferme della sua incredibile plasticità, che, nel caso di una deprivazione sensoriale a breve termine, modifica addirittuUditivo ra la funzione di una regione sensoriale Da qualche decennio gli scienziati sanno che alcune regioni cereprimaria. Per esempio, negli ultimi quatbrali integrano le informazioni provenienti dai diversi sensi. Una retro anni gli studi con le neuroimmagini gione mescola, magari, l’informazione visiva con la percezione sohanno confermato che bendare una permatosensoriale tattile oppure termica. E risulta che la percezione sona per almeno un’ora e mezzo prepara multisensoriale è un aspetto dell’architettura neurale del cervello la sua corteccia visiva a rispondere al tatpiù diffuso di quanto si credesse. Sembra dunque che si sia evoluto: in effetti il coinvolgimento della corto per favorire questo dialogo incrociato tra i sensi. Visivo Somatosensoriale teccia visiva acuisce la sensibilità al tatto. In un esempio correlato, spesso una miopia temporanea accresce le abilità uditive e spaziali, anche se i soggetti indossano occhiali (che offuscano buona parte della periferia visiva). A quanto pare, quindi, in generale la compensazione multisensoriale è assai più diffusa del previsto. La rivoluzione multisensoriale sta già aiutando le persone che hanno perduto uno dei sensi primari. Si è dimostrato, al riguardo, che gli impianti cocleari sono meno efficaci se il cervello ha avuto troppo tempo a disposizione per converSchema emergente Schema tradizionale tire la corteccia uditiva menomata ad altre forme di percezione, come la visione o Illustrazioni parzialmente estrapolate da dati sui cervelli dei primati. Sono mostrate solo le aree principali il tatto. Per questo è raccomandabile che i bambini sordi dalla nascita ricevano gli per un’ora. Dopo di che ascoltavano un insieme di frasi pronun- impianti cocleari il prima possibile. Ricerche simili hanno incociate sullo sfondo di un rumore casuale; a loro insaputa, metà di raggiato la prassi di far vedere ai bambini sordi e dotati di un imloro ascoltava le frasi pronunciate dalla persona di cui avevano pianto cocleare i video di persone che parlano. Impareranno coappena letto le labbra, e l’altra metà leggeva invece le frasi di una sì a integrare la parola vista sulle labbra con la parola ascoltata. Anche i progettisti di dispositivi e programmi per il riconoscipersona differente. È risultato che chi ascoltava la stessa persona di cui aveva letto le labbra era più bravo a estrapolarne le frasi in mento dei volti o del linguaggio sfruttano i risultati delle ricerche sulla percezione multisensoriale. I sistemi di riconoscimento delmezzo al rumore. la parola hanno quasi sempre prestazioni scarse se sono immerPercezioni che si accavallano si in livelli anche modesti di rumore di fondo. Insegnare a quei siLe ricerche sulla percezione multisensoriale del linguaggio stemi ad analizzare spezzoni video della bocca di una persona ne hanno stimolato lo studio dei più vari generi di interazione tra i aumenta decisamente l’accuratezza, una strategia efficace persino sensi. Per esempio, quasi tutti sappiamo che l’olfatto è una com- nelle videocamere installate nei telefonini e nei computer portatili. Per alcuni versi l’idea di percezione multisensoriale sembra ponente decisiva del gusto. Alcune ricerche dimostrano, però, che la vista e i suoni modificano a loro volta i sapori. In un esem- contraddire la nostra esperienza quotidiana. Per istinto, organizpio a dir poco curioso si è scoperto che una bevanda al sapore di ziamo i sensi in tipi, perché ciascuno di essi sembra cogliere un arancia acquista un sapore di ciliegia se è tinta di rosso, e vice- aspetto molto differente del mondo: usiamo gli occhi per vedere i versa. Nel 2005 Massimiliano Zampini e colleghi dell’Università nostri simili e le orecchie per ascoltarli; sentiamo la consistenza di di Trento hanno dimostrato che alterando il timbro di un rumore una mela con le mani, ma la gustiamo con la lingua. Tuttavia, quando l’informazione sensoriale raggiunge il cervelcroccante emesso mentre si mangiano patatine altera la percezione della loro croccantezza e freschezza. Guardare una trama visi- lo, questa rigida classificazione si sgretola, perché il cervello non va che scende in modo continuo – una cascata – induce le perso- colloca l’informazione visiva dagli occhi in un contenitore neurane a credere che le superfici che stanno toccando stiano salendo. le e l’informazione uditiva dalle orecchie in un altro, come se metEd è stato anche dimostrato che gli stimoli multisensoriali modifi- tesse in ordine delle monete. Al contrario, estrae un significato dal cano inconsciamente il nostro comportamento. Tom Stoffregen e mondo nei modi più svariati, mescolando le diverse forme di percolleghi dell’Università del Minnesota hanno chiesto a volontarie cezione sensoriale. n di stare in piedi e spostare lo sguardo da un bersaglio vicino a uno per approfondire distante. Ebbene, la semplice variazione del fuoco visivo ha indotto cambiamenti lievi, ma sistematici, della loro postura. Speech Perception as a Multimodal Phenomenon. Rosenblum L.D., in «Current Risultati simili sono ormai così frequenti che oggi molti ri- Directions in Psychological Science», Vol. 17, 2008. cercatori ritengono che le regioni sensoriali del cervello siano The New Handbook of Multisensory Processing. Stein E.B., (a cura), MIT Press, intrinsecamente multisensoriali. Questo modello riveduto del 2012. Nessun senso è un’isola si attivano quando le parole le sentiamo pronunciare. Fu una delle prime dimostrazioni di influssi incrociati tra sensi in un’area del cervello considerata fino a quel momento specializzata in un unico senso. Studi più recenti hanno aggiunto prove a favore della sintesi sensoriale. Per esempio oggi sappiamo che la parte uditiva del tronco cerebrale risponde ad aspetti della parola percepita con gli occhi, mentre prima si credeva che quell’area si occupasse esclusivamente dell’elaborazione più rudimentale dei suoni. Gli studi di neuroimaging hanno dimostrato che durante l’effetto McGurk – udire «da» anche se il suono registrato è «ba» – il cervello si comporta come se la sillaba «da» stesse cadendo sulle orecchie dell’ascoltatore. Questi risultati suggeriscono che il cervello darebbe sempre lo stesso peso alla parola, che sia raccolta dalle orecchie, dagli occhi o addirittura dalla pelle. Ciò non significa che queste distinte modalità sensoriali contribuiscano con una quantità di informazione equivalente. È chiaro, l’udito coglie più dettagli linguistici rispetto alla vista o al tatto. Piuttosto, il cervello si impegna a prendere in considerazione e combinare le differenti informazioni verbali ricevute, a prescindere dalla modalità sensoriale. Un volto da leggere In altri casi, i sensi collaborano per elaborare lo stesso tipo di informazione. Il modo specifico di parlare di una persona, per esempio, ci fa capire chi è, sia che la vediamo parlare oppure la udiamo. Con i miei colleghi filmiamo alcune persone mentre parlano, poi manipoliamo i video eliminando ogni tratto riconoscibile dei volti, che si trasformano così in pattern di puntini luminescenti che sfrecciano e ballonzolano dove c’erano guance e labbra. Quando proiettiamo i filmati, i volontari sanno leggere questi aggregati di puntini senza faccia e distinguere gli amici. Anche semplici suoni derivati dalla parola ci indicano l’identità di una persona. Robert Remez e i colleghi della Columbia University riducono le normali registrazioni verbali a onde sinuisodali, simili ai sibili e ai bip del robottino C1P8 di Guerre Stellari. Benché siano privi delle caratteristiche che distinguono le voci – come il timbro e la tonalità – questi pattern sinusoidali conservano l’informazione dello stile del parlato, e gli ascoltatori riescono a riconoscere gli amici. Il fatto ancora più sorprendente è che i volontari riescono ad accoppiare queste onde sinusoidali con i video a puntini luminosi della stessa persona che parla. Il fatto che versioni ridotte al minimo di un discorso sentito, e visto, conservino un’informazione simile sullo stile verbale indica che queste distinte modalità percettive si intrecciano nel cervello, un collegamento confermato dalle neuroimmagini: ascoltare la voce di una persona familiare attiva il giro fusiforme, l’area del cervello umano che si occupa del riconoscimento dei volti. Questi risultati hanno ispirato una previsione ancora più bizzarra. Se queste forme di percezione sono mescolate, allora imparare a leggere le labbra di una persona dovrebbe migliorare simultaneamente la capacità di ascoltarne le parole mentre le pronuncia. Abbiamo chiesto a volontari inesperti di lettura labiale di esercitarsi nella lettura di video muti di una persona che parlava 535 marzo 2013 Fonte: Is neocortex essentially multisensory? di Asif A. Ghazanfar e Charles E. Schroeder, in Trends in «Cognitive Sciences», Vol. 10, No. 6; giugno 2006 (schema emergente); aggiornato per Lawrence D. Rosenblum, Aaron R. Seitz e Khaleel A. Razak gione i bambini ciechi dalla nascita spesso impiegano più tempo per imparare alcuni aspetti del linguaggio. In sostanza, non possiamo fare a meno di integrare le parole che vediamo sulle labbra altrui con le parole che ascoltiamo. Negli ultimi decenni la ricerca sulla percezione multisensoriale del linguaggio ha rivoluzionato le nostre idee su come il cervello organizza le informazioni sensoriali. Neuroscienziati e gli psicologi hanno abbandonato l’idea tradizionale che il cervello sia una specie di coltellino svizzero, in cui regioni diverse si occupano ciascuna di uno dei cinque sensi. Oggi si ritiene invece che l’evoluzione del cervello abbia privilegiato il dialogo tra i sensi, e che le regioni sensoriali del cervello siano quindi fisicamente collegate fra loro. I nostri sensi si sorvegliano reciprocamente in continuazione, occupandosi l’uno degli affari degli altri. La corteccia visiva, per esempio, pur occupandosi in primo luogo della visione, è perfettamente in grado di interpretare altre informazioni sensoriali. Dopo essere stata bendata per 90 minuti, una persona vedente diventa ipersensibile al tatto proprio attraverso la corteccia visiva. Allo stesso modo le scansioni cerebrali dimostrano che la corteccia visiva dei non vedenti riorganizza i propri circuiti a favore della percezione uditiva. Masticando una patatina fritta, sentire un suono croccante determina in parte sua gradevolezza, al punto che è possibile alterare in laboratorio i risultati dei test sul gusto modulando il rumore percepito dai soggetti. Ancora, la direzione verso cui guardiamo stando in piedi e ciò che vediamo determinano la nostra postura. In sintesi, le ricerche degli ultimi 15 anni dimostrano che nessuno dei nostri sensi è un’isola. Questa rivoluzione multisensoriale sta inoltre suggerendo nuovi modi per migliorare gli ausili per le persone cieche o sorde, come gli impianti cocleari. www.lescienze.it Le Scienze 67