...

I nostri cinque sensi collaborano assai più di quanto credevamo. Ciò

by user

on
Category: Documents
28

views

Report

Comments

Transcript

I nostri cinque sensi collaborano assai più di quanto credevamo. Ciò
neuroscienze
I supersensi
del cervello
I nostri cinque sensi collaborano assai più di quanto credevamo.
Ciò che udiamo dipende pertanto
anche dalle cose che vediamo o che percepiamo con gli altri sensi
A
di Lawrence D. Rosenblum
lla fine degli anni settanta, l’FBI arruolò Sue Thomas e altre sette persone non
udenti come lei perché analizzassero il
disegno delle impronte digitali. L’ente
federale era convinto che svolgendo questo compito notoriamente minuzioso le
persone sorde sarebbero rimaste concentrate più a lungo. Ma Sue trovò l’operazione terribilmente monotona, lamentandosene più volte con i superiori e chiedendo di rinunciare all’incarico. Il suo responsabile la convocò, ma non per
licenziarla. Anzi, in un certo senso fu promossa. Le mostrò un video muto di due presunti criminali intenti a conversare e le chie-
se di decifrare il labiale. Sue interpretò facilmente le parole dei
sospettati, che facevano parte di una rete di gioco d’azzardo clandestino. E così cominciò la carriera di Sue, la prima esperta lettrice labiale in forza all’FBI.
Le sue abilità si erano affinate grazie a una vita passata a comunicare leggendo le labbra. Eppure è un talento che abbiamo
tutti, e più spiccato di quanto crediamo. In effetti, la nostra capacità di capire le parole diminuisce se non possiamo vedere le
labbra dell’interlocutore, per esempio negli ambienti rumorosi o
quando la persona ha un marcato accento estraneo. Imparare a
percepire le parole con gli occhi, oltre che con le orecchie, è importante per uno sviluppo normale del linguaggio. Per questa ra-
Victoria Ling
In breve
64 Le Scienze
535 Marzo 2013
I neuroscienziati hanno
considerato a lungo il cervello come
una specie di coltellino svizzero,
in cui le differenti regioni erano
dedicate alle diverse percezioni
www.lescienze.it
sensoriali, come la vista, l’udito,
l’olfatto, il gusto, il tatto.
Tuttavia negli ultimi trent’anni la
psicologia e le neuroscienze hanno
rivelato che il cervello è un organo
profondamente multesensoriale, che
mescola di continuo le informazioni
dai diversi sensi.
La rivoluzione multisensoriale,
oltre a cambiare il modo in cui viene
studiato il cervello, suggerisce nuove
strade per aiutare le persone cieche
e quelle sorde, suggerendo inoltre
perfezionamenti ai software di
riconoscimento verbale.
Le Scienze 65
Sillabe silenziose
Uno dei primi e più solidi esempi conosciuti di percezione multisensoriale è l’effetto McGurk, osservato per la prima volta nel
1976 da Harry McGurk e John MacDonald. Se guardate il video
di una persona che pronuncia ripetutamente in silenzio la sillaba
«ga» e contemporaneamente udite l’audio in cui quella stessa persona pronuncia la sillaba «ba», sentirete la sillaba «da». La sillaba
silenziosa «ga» cambia la vostra percezione della sillaba percepibile «ba» perché il cervello integra quanto il vostro corpo ha udito e visto. L’effetto McGurk funziona in tutte le lingue e continua
a funzionare anche dopo 25 anni che lo si studia…
La parola che udiamo è influenzata anche dal parlato percepito
sotto le nostre dita. Nel 1991 Carol Fowler, all’epoca al Darmouth
College, ha chiesto ad alcuni volontari di provare la tecnica Tadoma, che consiste nell’interpretare il discorso di una persona che ci
sta parlando mettendo le nostre dita sulle sue labbra, sulle guance
e sul collo. Era una tecnica a cui si affidavano molte persone sordo-cieche prima che esistessero gli impianti cocleari, tra cui Helen
Keller, la celebre scrittrice, attivista e insegnante statunitense, vissuta tra il 1880 e il 1968, sorda e cieca dall’età di 19 mesi. Dall’esperimento è emerso che le sillabe percepite con il tatto dai volontari cambiavano la loro interpretazione di altre sillabe provenienti
dai vicini altoparlanti.
Nel 1997 Gemma Calvert, allora all’Università di Oxford, individuò le aree del cervello più attive durante la lettura labiale. Volontari inesperti in questa forma lettura leggevano le labbra di un
volto silenzioso che scandivano lentamente i numeri da uno a nove. Calvert e colleghi riscontrarono che la lettura del labiale attivava sia la corteccia uditiva – la regione cerebrale specializzata
nei suoni – sia le regioni cerebrali correlate che, come sappiamo,
66 Le Scienze
Percezione
Lawrence D. Rosenblum è docente di psicologia
all’Università della California a Riverside, e autore di Lo
straordinario potere dei nostri sensi, Bollati Boringhieri,
Torino, 2011.
cervello va ad aggiungersi alle conferme della sua incredibile plasticità, che,
nel caso di una deprivazione sensoriale a breve termine, modifica addirittuUditivo
ra la funzione di una regione sensoriale
Da qualche decennio gli scienziati sanno che alcune regioni cereprimaria. Per esempio, negli ultimi quatbrali integrano le informazioni provenienti dai diversi sensi. Una retro anni gli studi con le neuroimmagini
gione mescola, magari, l’informazione visiva con la percezione sohanno confermato che bendare una permatosensoriale tattile oppure termica. E risulta che la percezione
sona per almeno un’ora e mezzo prepara
multisensoriale è un aspetto dell’architettura neurale del cervello
la sua corteccia visiva a rispondere al tatpiù diffuso di quanto si credesse. Sembra dunque che si sia evoluto: in effetti il coinvolgimento della corto per favorire questo dialogo incrociato tra i sensi.
Visivo
Somatosensoriale
teccia visiva acuisce la sensibilità al tatto.
In un esempio correlato, spesso una miopia temporanea accresce le abilità uditive e spaziali, anche se i soggetti indossano
occhiali (che offuscano buona parte della
periferia visiva). A quanto pare, quindi, in
generale la compensazione multisensoriale è assai più diffusa del previsto.
La rivoluzione multisensoriale sta già
aiutando le persone che hanno perduto uno dei sensi primari. Si è dimostrato,
al riguardo, che gli impianti cocleari sono meno efficaci se il cervello ha avuto
troppo tempo a disposizione per converSchema emergente
Schema tradizionale
tire la corteccia uditiva menomata ad altre forme di percezione, come la visione o
Illustrazioni parzialmente estrapolate da dati sui cervelli dei primati. Sono mostrate solo le aree principali
il tatto. Per questo è raccomandabile che
i bambini sordi dalla nascita ricevano gli
per un’ora. Dopo di che ascoltavano un insieme di frasi pronun- impianti cocleari il prima possibile. Ricerche simili hanno incociate sullo sfondo di un rumore casuale; a loro insaputa, metà di raggiato la prassi di far vedere ai bambini sordi e dotati di un imloro ascoltava le frasi pronunciate dalla persona di cui avevano pianto cocleare i video di persone che parlano. Impareranno coappena letto le labbra, e l’altra metà leggeva invece le frasi di una sì a integrare la parola vista sulle labbra con la parola ascoltata.
Anche i progettisti di dispositivi e programmi per il riconoscipersona differente. È risultato che chi ascoltava la stessa persona
di cui aveva letto le labbra era più bravo a estrapolarne le frasi in mento dei volti o del linguaggio sfruttano i risultati delle ricerche
sulla percezione multisensoriale. I sistemi di riconoscimento delmezzo al rumore.
la parola hanno quasi sempre prestazioni scarse se sono immerPercezioni che si accavallano
si in livelli anche modesti di rumore di fondo. Insegnare a quei siLe ricerche sulla percezione multisensoriale del linguaggio stemi ad analizzare spezzoni video della bocca di una persona ne
hanno stimolato lo studio dei più vari generi di interazione tra i aumenta decisamente l’accuratezza, una strategia efficace persino
sensi. Per esempio, quasi tutti sappiamo che l’olfatto è una com- nelle videocamere installate nei telefonini e nei computer portatili.
Per alcuni versi l’idea di percezione multisensoriale sembra
ponente decisiva del gusto. Alcune ricerche dimostrano, però, che
la vista e i suoni modificano a loro volta i sapori. In un esem- contraddire la nostra esperienza quotidiana. Per istinto, organizpio a dir poco curioso si è scoperto che una bevanda al sapore di ziamo i sensi in tipi, perché ciascuno di essi sembra cogliere un
arancia acquista un sapore di ciliegia se è tinta di rosso, e vice- aspetto molto differente del mondo: usiamo gli occhi per vedere i
versa. Nel 2005 Massimiliano Zampini e colleghi dell’Università nostri simili e le orecchie per ascoltarli; sentiamo la consistenza di
di Trento hanno dimostrato che alterando il timbro di un rumore una mela con le mani, ma la gustiamo con la lingua.
Tuttavia, quando l’informazione sensoriale raggiunge il cervelcroccante emesso mentre si mangiano patatine altera la percezione della loro croccantezza e freschezza. Guardare una trama visi- lo, questa rigida classificazione si sgretola, perché il cervello non
va che scende in modo continuo – una cascata – induce le perso- colloca l’informazione visiva dagli occhi in un contenitore neurane a credere che le superfici che stanno toccando stiano salendo. le e l’informazione uditiva dalle orecchie in un altro, come se metEd è stato anche dimostrato che gli stimoli multisensoriali modifi- tesse in ordine delle monete. Al contrario, estrae un significato dal
cano inconsciamente il nostro comportamento. Tom Stoffregen e mondo nei modi più svariati, mescolando le diverse forme di percolleghi dell’Università del Minnesota hanno chiesto a volontarie cezione sensoriale.
n
di stare in piedi e spostare lo sguardo da un bersaglio vicino a uno
per approfondire
distante. Ebbene, la semplice variazione del fuoco visivo ha indotto cambiamenti lievi, ma sistematici, della loro postura.
Speech Perception as a Multimodal Phenomenon. Rosenblum L.D., in «Current
Risultati simili sono ormai così frequenti che oggi molti ri- Directions in Psychological Science», Vol. 17, 2008.
cercatori ritengono che le regioni sensoriali del cervello siano The New Handbook of Multisensory Processing. Stein E.B., (a cura), MIT Press,
intrinsecamente multisensoriali. Questo modello riveduto del 2012.
Nessun senso è un’isola
si attivano quando le parole le sentiamo pronunciare. Fu una delle prime dimostrazioni di influssi incrociati tra sensi in un’area del
cervello considerata fino a quel momento specializzata in un unico senso. Studi più recenti hanno aggiunto prove a favore della
sintesi sensoriale. Per esempio oggi sappiamo che la parte uditiva del tronco cerebrale risponde ad aspetti della parola percepita con gli occhi, mentre prima si credeva che quell’area si occupasse esclusivamente dell’elaborazione più rudimentale dei suoni.
Gli studi di neuroimaging hanno dimostrato che durante l’effetto
McGurk – udire «da» anche se il suono registrato è «ba» – il cervello si comporta come se la sillaba «da» stesse cadendo sulle orecchie dell’ascoltatore.
Questi risultati suggeriscono che il cervello darebbe sempre lo
stesso peso alla parola, che sia raccolta dalle orecchie, dagli occhi
o addirittura dalla pelle. Ciò non significa che queste distinte modalità sensoriali contribuiscano con una quantità di informazione
equivalente. È chiaro, l’udito coglie più dettagli linguistici rispetto
alla vista o al tatto. Piuttosto, il cervello si impegna a prendere in
considerazione e combinare le differenti informazioni verbali ricevute, a prescindere dalla modalità sensoriale.
Un volto da leggere
In altri casi, i sensi collaborano per elaborare lo stesso tipo di
informazione. Il modo specifico di parlare di una persona, per
esempio, ci fa capire chi è, sia che la vediamo parlare oppure la
udiamo. Con i miei colleghi filmiamo alcune persone mentre parlano, poi manipoliamo i video eliminando ogni tratto riconoscibile dei volti, che si trasformano così in pattern di puntini luminescenti che sfrecciano e ballonzolano dove c’erano guance e labbra.
Quando proiettiamo i filmati, i volontari sanno leggere questi
aggregati di puntini senza faccia e distinguere gli amici.
Anche semplici suoni derivati dalla parola ci indicano l’identità di una persona. Robert Remez e i colleghi della Columbia
University riducono le normali registrazioni verbali a onde sinuisodali, simili ai sibili e ai bip del robottino C1P8 di Guerre Stellari.
Benché siano privi delle caratteristiche che distinguono le voci –
come il timbro e la tonalità – questi pattern sinusoidali conservano l’informazione dello stile del parlato, e gli ascoltatori riescono
a riconoscere gli amici. Il fatto ancora più sorprendente è che i volontari riescono ad accoppiare queste onde sinusoidali con i video
a puntini luminosi della stessa persona che parla.
Il fatto che versioni ridotte al minimo di un discorso sentito, e
visto, conservino un’informazione simile sullo stile verbale indica
che queste distinte modalità percettive si intrecciano nel cervello, un collegamento confermato dalle neuroimmagini: ascoltare
la voce di una persona familiare attiva il giro fusiforme, l’area del
cervello umano che si occupa del riconoscimento dei volti.
Questi risultati hanno ispirato una previsione ancora più bizzarra. Se queste forme di percezione sono mescolate, allora imparare a leggere le labbra di una persona dovrebbe migliorare
simultaneamente la capacità di ascoltarne le parole mentre le pronuncia. Abbiamo chiesto a volontari inesperti di lettura labiale di
esercitarsi nella lettura di video muti di una persona che parlava
535 marzo 2013
Fonte: Is neocortex essentially multisensory? di Asif A. Ghazanfar e Charles E. Schroeder, in Trends in «Cognitive Sciences», Vol. 10,
No. 6; giugno 2006 (schema emergente); aggiornato per Lawrence D. Rosenblum, Aaron R. Seitz e Khaleel A. Razak
gione i bambini ciechi dalla nascita spesso impiegano più tempo
per imparare alcuni aspetti del linguaggio. In sostanza, non possiamo fare a meno di integrare le parole che vediamo sulle labbra
altrui con le parole che ascoltiamo. Negli ultimi decenni la ricerca
sulla percezione multisensoriale del linguaggio ha rivoluzionato le
nostre idee su come il cervello organizza le informazioni sensoriali.
Neuroscienziati e gli psicologi hanno abbandonato l’idea tradizionale che il cervello sia una specie di coltellino svizzero, in cui
regioni diverse si occupano ciascuna di uno dei cinque sensi. Oggi si ritiene invece che l’evoluzione del cervello abbia privilegiato il dialogo tra i sensi, e che le regioni sensoriali del cervello siano quindi fisicamente collegate fra loro.
I nostri sensi si sorvegliano reciprocamente in continuazione,
occupandosi l’uno degli affari degli altri. La corteccia visiva, per
esempio, pur occupandosi in primo luogo della visione, è perfettamente in grado di interpretare altre informazioni sensoriali. Dopo essere stata bendata per 90 minuti, una persona vedente diventa ipersensibile al tatto proprio attraverso la corteccia visiva. Allo
stesso modo le scansioni cerebrali dimostrano che la corteccia visiva dei non vedenti riorganizza i propri circuiti a favore della percezione uditiva. Masticando una patatina fritta, sentire un suono
croccante determina in parte sua gradevolezza, al punto che è possibile alterare in laboratorio i risultati dei test sul gusto modulando il rumore percepito dai soggetti. Ancora, la direzione verso cui
guardiamo stando in piedi e ciò che vediamo determinano la nostra postura. In sintesi, le ricerche degli ultimi 15 anni dimostrano che nessuno dei nostri sensi è un’isola. Questa rivoluzione multisensoriale sta inoltre suggerendo nuovi modi per migliorare gli
ausili per le persone cieche o sorde, come gli impianti cocleari.
www.lescienze.it
Le Scienze 67
Fly UP