Come localizziamo i suoni?

Aggiungi un commento + Apri annotazioni. Viene calcolato il conteggio delle annotazioni corrente in questa pagina.

Grafica di un’onda sonora registrata. Immagine di credito: Antje Ihlefeld (CC BY 4.0)

Essere in grado di localizzare i suoni ci aiuta a dare un senso al mondo che ci circonda. Il cervello funziona direzione del suono confrontando i tempi di quando il suono raggiunge la sinistra contro l’orecchio destro. Questo spunto è noto come interaural time difference, o ITD in breve. Ma come esattamente il cervello decodifica queste informazioni è ancora sconosciuto.

Il cervello contiene cellule nervose che mostrano ciascuna la massima attività in risposta a un particolare ITD. Un’idea è che queste cellule nervose siano disposte nel cervello come una mappa da sinistra a destra, e che il cervello usi questa mappa per stimare la direzione del suono. Questo è noto come il modello di Jeffress, dopo lo scienziato che per primo lo ha proposto. Ci sono alcune prove che gli uccelli e gli alligatori usano effettivamente un sistema come questo per localizzare i suoni, ma nessuna mappa di cellule nervose è stata ancora identificata nei mammiferi. Una possibilità alternativa è che il cervello paragoni l’attività attraverso gruppi di cellule nervose sensibili a ITD. Uno dei modi più antichi e semplici per misurare questo è confrontare l’attività nervosa negli emisferi sinistro e destro del cervello. Questa lettura è nota come modello di differenza emisferica.

Analizzando i dati degli studi pubblicati, Ihlefeld, Alamatsaz e Shapley hanno scoperto che questi due modelli fanno previsioni opposte sugli effetti del volume. Il modello Jeffress prevede che il volume di un suono non influenzerà la capacità di una persona di localizzarlo. Al contrario, il modello di differenza emisferica prevede che i suoni molto morbidi porteranno a errori sistematici, in modo che per lo stesso ITD, i suoni più morbidi siano percepiti più vicino verso la parte anteriore rispetto ai suoni più forti. Per indagare ulteriormente, Ihlefeld, Alamatsaz e Shapley hanno chiesto a volontari sani di localizzare suoni di diversi volumi. I volontari tendevano a localizzare erroneamente suoni più silenziosi, credendo che fossero più vicini alla linea mediana del corpo di quanto non fossero in realtà, il che è incoerente con le previsioni del modello di Jeffress.

Queste nuove scoperte rivelano anche paralleli chiave per l’elaborazione nel sistema visivo. Le aree visive del cervello stimano la distanza di un oggetto confrontando l’input che raggiunge i due occhi. Ma queste stime sono anche sistematicamente meno accurate per gli stimoli a basso contrasto rispetto a quelli ad alto contrasto, proprio come la localizzazione del suono è meno accurata per i suoni più morbidi rispetto a quelli più forti. L’idea che il cervello usi la stessa strategia di base per localizzare sia le viste che i suoni genera una serie di previsioni per gli studi futuri da testare.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.