hoe lokaliseren we geluiden?

voeg een commentaar toe + open annotaties. Het huidige aantal annotaties op deze pagina wordt berekend.

afbeelding van een opgenomen geluidsgolf. Beeld door: Antje Ihlefeld (CC BY 4.0)

het lokaliseren van geluiden helpt ons de wereld om ons heen te begrijpen. De hersenen werken de geluidsrichting uit door de tijden te vergelijken van wanneer het geluid het linker-versus het rechteroor bereikt. Deze cue staat bekend als interauraal Tijdsverschil, of kortweg ITD. Maar hoe de hersenen deze informatie precies decoderen is nog onbekend.

de hersenen bevatten zenuwcellen die elk een maximale activiteit vertonen als reactie op een bepaalde ITD. Een idee is dat deze zenuwcellen in de hersenen zijn gerangschikt als een kaart van links naar rechts, en dat de hersenen deze kaart gebruiken om de geluidsrichting in te schatten. Dit staat bekend als het Jeffress-model, naar de wetenschapper die het voor het eerst voorstelde. Er is enig bewijs dat vogels en alligators een dergelijk systeem gebruiken om geluiden te lokaliseren, maar een dergelijke kaart van zenuwcellen is nog niet geïdentificeerd bij zoogdieren. Een alternatieve mogelijkheid is dat de hersenen activiteit vergelijkt tussen groepen van ITD-gevoelige zenuwcellen. Een van de oudste en eenvoudigste manieren om dit te meten is om de zenuwactiviteit in de linker-en rechterhersenhelft van de hersenen te vergelijken. Deze uitlezing staat bekend als het hemisferische verschilmodel.Door gegevens uit gepubliceerde studies te analyseren, ontdekten Ihlefeld, Alamatsaz en Shapley dat deze twee modellen tegengestelde voorspellingen doen over de effecten van volume. Het Jeffress-model voorspelt dat het volume van een geluid geen invloed zal hebben op iemands vermogen om het te lokaliseren. Het hemisferische verschilmodel voorspelt daarentegen dat zeer zachte geluiden tot systematische fouten zullen leiden, zodat voor dezelfde ITD zachtere geluiden dichter naar voren worden waargenomen dan luidere geluiden. Om dit verder te onderzoeken, vroegen Ihlefeld, Alamatsaz en Shapley gezonde vrijwilligers om geluiden van verschillende volumes te lokaliseren. De vrijwilligers hadden de neiging om stillere geluiden verkeerd te lokaliseren, omdat ze geloofden dat ze dichter bij de middellijn van het lichaam stonden dan ze in werkelijkheid waren, wat niet strookt met de voorspellingen van het Jeffress-model.

deze nieuwe bevindingen laten ook belangrijke parallellen zien met de verwerking in het visuele systeem. Visuele gebieden van de hersenen schatten hoe ver weg een object is door het vergelijken van de input die de twee ogen bereikt. Maar deze schattingen zijn ook systematisch minder nauwkeurig voor stimuli met een laag contrast dan voor stimuli met een hoog contrast, net zoals de lokalisatie van geluid minder nauwkeurig is voor zachtere geluiden dan voor luidere. Het idee dat de hersenen dezelfde basisstrategie gebruiken om zowel beelden als geluiden te lokaliseren genereert een aantal voorspellingen voor toekomstige studies om te testen.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.