hur lokaliserar vi ljud?

Lägg till en kommentar + öppna anteckningar. Det aktuella antalet anteckningar på den här sidan beräknas.

grafik av en inspelad ljudvåg. Bildkredit: Antje Ihlefeld (CC BY 4.0)

att kunna lokalisera ljud hjälper oss att förstå världen omkring oss. Hjärnan arbetar ut ljudriktning genom att jämföra tiderna när ljudet når vänster kontra höger öra. Denna cue är känd som interaural tidsskillnad, eller ITD för kort. Men hur exakt hjärnan avkodar denna information är fortfarande okänd.

hjärnan innehåller nervceller som var och en visar maximal aktivitet som svar på en viss ITD. En tanke är att dessa nervceller är ordnade i hjärnan som en karta från vänster till höger, och att hjärnan sedan använder denna karta för att uppskatta ljudriktningen. Detta är känt som Jeffress-modellen, efter forskaren som först föreslog det. Det finns vissa bevis för att fåglar och alligatorer faktiskt använder ett system som detta för att lokalisera ljud, men ingen sådan karta över nervceller har ännu identifierats hos däggdjur. En alternativ möjlighet är att hjärnan jämför aktivitet mellan grupper av ITD-känsliga nervceller. Ett av de äldsta och enklaste sätten att mäta detta är att jämföra nervaktivitet i hjärnans vänstra och högra hemisfärer. Denna avläsning är känd som hemisfärisk skillnadsmodell.

genom att analysera data från publicerade studier upptäckte Ihlefeld, Alamatsaz och Shapley att dessa två modeller gör motsatta förutsägelser om effekterna av volymen. Jeffress-modellen förutspår att ljudvolymen inte påverkar en persons förmåga att lokalisera den. Däremot förutspår den hemisfäriska skillnadsmodellen att mycket mjuka ljud kommer att leda till systematiska fel, så att för samma ITD uppfattas mjukare ljud närmare framåt än högre ljud. För att undersöka detta vidare bad Ihlefeld, Alamatsaz och Shapley friska frivilliga att lokalisera ljud av olika volymer. Volontärerna tenderade att misslokalisera tystare ljud och trodde att de var närmare kroppens mittlinje än de faktiskt var, vilket är oförenligt med Jeffress-modellens förutsägelser.

dessa nya fynd avslöjar också viktiga paralleller till bearbetning i det visuella systemet. Visuella områden i hjärnan uppskattar hur långt ett objekt är genom att jämföra ingången som når de två ögonen. Men dessa uppskattningar är också systematiskt mindre exakta för stimuli med låg kontrast än för Högkontrast, precis som ljudlokalisering är mindre exakt för mjukare ljud än för högre. Tanken att hjärnan använder samma grundläggande strategi för att lokalisera både sevärdheter och ljud genererar ett antal förutsägelser för framtida studier att testa.

Lämna ett svar

Din e-postadress kommer inte publiceras.