Añadir un comentario + Abrir anotaciones. Se está calculando el recuento de anotaciones actual en esta página.
Ser capaz de localizar sonidos nos ayuda a dar sentido al mundo que nos rodea. El cerebro determina la dirección del sonido comparando los momentos en que el sonido llega al oído izquierdo con el derecho. Esta señal se conoce como diferencia de tiempo interaural, o ITD para abreviar. Pero todavía se desconoce cómo decodifica exactamente el cerebro esta información.
El cerebro contiene células nerviosas que muestran la máxima actividad en respuesta a una DTI en particular. Una idea es que estas células nerviosas están dispuestas en el cerebro como un mapa de izquierda a derecha, y que el cerebro luego usa este mapa para estimar la dirección del sonido. Esto se conoce como el modelo Jeffress, por el científico que lo propuso por primera vez. Hay alguna evidencia de que las aves y los caimanes en realidad usan un sistema como este para localizar sonidos, pero aún no se ha identificado un mapa de células nerviosas en mamíferos. Una posibilidad alternativa es que el cerebro compare la actividad entre grupos de células nerviosas sensibles a la DTI. Una de las formas más antiguas y sencillas de medir esto es comparar la actividad nerviosa en los hemisferios izquierdo y derecho del cerebro. Esta lectura se conoce como el modelo de diferencia hemisférica.
Mediante el análisis de datos de estudios publicados, Ihlefeld, Alamatsaz y Shapley descubrieron que estos dos modelos hacen predicciones opuestas sobre los efectos del volumen. El modelo Jeffress predice que el volumen de un sonido no afectará la capacidad de una persona para localizarlo. Por el contrario, el modelo de diferencia hemisférica predice que los sonidos muy suaves conducirán a errores sistemáticos, de modo que para el mismo DTI, los sonidos más suaves se perciben más cerca hacia el frente que los sonidos más fuertes. Para investigar esto más a fondo, Ihlefeld, Alamatsaz y Shapley pidieron a voluntarios sanos que localizaran sonidos de diferentes volúmenes. Los voluntarios tendieron a localizar mal los sonidos más silenciosos, creyendo que estaban más cerca de la línea media del cuerpo de lo que realmente estaban, lo que es inconsistente con las predicciones del modelo de Jeffress.
Estos nuevos hallazgos también revelan paralelismos clave con el procesamiento en el sistema visual. Las áreas visuales del cerebro calculan la distancia de un objeto comparando la entrada que llega a los dos ojos. Pero estas estimaciones también son sistemáticamente menos precisas para los estímulos de bajo contraste que para los de alto contraste, al igual que la localización del sonido es menos precisa para los sonidos más suaves que para los más fuertes. La idea de que el cerebro utiliza la misma estrategia básica para localizar imágenes y sonidos genera una serie de predicciones para estudios futuros a prueba.