Comment localise-t-on les sons ?

Ajouter un commentaire + Ouvrir les annotations. Le nombre d’annotations en cours sur cette page est en cours de calcul.

Graphique d’une onde sonore enregistrée. Crédit image : Antje Ihlefeld (CC BY 4.0)

Être capable de localiser les sons nous aide à donner un sens au monde qui nous entoure. Le cerveau détermine la direction du son en comparant les moments où le son atteint l’oreille gauche par rapport à l’oreille droite. Ce signal est connu sous le nom de décalage horaire interaural, ou ITD en abrégé. Mais comment exactement le cerveau décode ces informations est encore inconnu.

Le cerveau contient des cellules nerveuses qui montrent chacune une activité maximale en réponse à une ITD particulière. Une idée est que ces cellules nerveuses sont disposées dans le cerveau comme une carte de gauche à droite, et que le cerveau utilise ensuite cette carte pour estimer la direction du son. C’est ce qu’on appelle le modèle de Jeffress, d’après le scientifique qui l’a proposé le premier. Il existe des preuves que les oiseaux et les alligators utilisent réellement un système comme celui-ci pour localiser les sons, mais aucune carte de ces cellules nerveuses n’a encore été identifiée chez les mammifères. Une autre possibilité est que le cerveau compare l’activité à travers des groupes de cellules nerveuses sensibles aux TI. L’un des moyens les plus anciens et les plus simples de mesurer cela consiste à comparer l’activité nerveuse dans les hémisphères gauche et droit du cerveau. Cette lecture est connue sous le nom de modèle de différence hémisphérique.

En analysant les données d’études publiées, Ihlefeld, Alamatsaz et Shapley ont découvert que ces deux modèles font des prédictions opposées sur les effets du volume. Le modèle de Jeffress prédit que le volume d’un son n’affectera pas la capacité d’une personne à le localiser. En revanche, le modèle de différence hémisphérique prédit que des sons très doux entraîneront des erreurs systématiques, de sorte que pour le même ITD, des sons plus doux sont perçus plus près de l’avant que des sons plus forts. Pour étudier cela plus en détail, Ihlefeld, Alamatsaz et Shapley ont demandé à des volontaires sains de localiser des sons de différents volumes. Les volontaires avaient tendance à mal localiser les sons plus calmes, les croyant plus proches de la ligne médiane du corps qu’ils ne l’étaient réellement, ce qui est incompatible avec les prédictions du modèle de Jeffress.

Ces nouvelles découvertes révèlent également des parallèles clés avec le traitement dans le système visuel. Les zones visuelles du cerveau estiment la distance d’un objet en comparant l’entrée qui atteint les deux yeux. Mais ces estimations sont également systématiquement moins précises pour les stimuli à faible contraste que pour les stimuli à contraste élevé, tout comme la localisation du son est moins précise pour les sons plus doux que pour les sons plus forts. L’idée que le cerveau utilise la même stratégie de base pour localiser à la fois les images et les sons génère un certain nombre de prédictions pour de futures études à tester.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.