El misterio acerca de cómo funciona la audición selectiva -cómo la gente puede sintonizar con un solo emisor mientras se desconecta de un ambiente concurrido y ruidoso- ha sido resuelto por un estudio publicado esta semana en la revista 'Nature', llevado a cabo por dos científicos de la Universidad de California, en San Francisco (UCSF)
MADRID
El misterio acerca de cómo funciona la audición selectiva -cómo la gente puede sintonizar con un solo emisor mientras se desconecta de un ambiente concurrido y ruidoso- ha sido resuelto por un estudio publicado esta semana en la revista 'Nature', llevado a cabo por dos científicos de la Universidad de California, en San Francisco (UCSF).
Los psicólogos conocen, desde hace décadas, el llamado efecto "fiesta de cocktail", un nombre que evoca la época de los 'Mad Men', en la que se acuñó. Se trata de la notable capacidad humana para centrarse en un solo emisor, en prácticamente cualquier entorno -como un salón de clases, un evento deportivo, o un café-bar- incluso si la voz de esa persona se encuentra, aparentemente, ahogada por el ruido.
Para entender cómo funciona la audición selectiva en el cerebro, el neurocirujano de la UCSF, Edward Chang, miembro del Departamento de Cirugía Neurológica y del Centro Keck de Neurociencia Integrativa; y Nima Mesgarani, también de la UCSF, trabajaron con tres pacientes que se encontraban sometidos a cirugía cerebral para la epilepsia severa. Parte de esta cirugía consiste en determinar con precisión las partes del cerebro responsables de la desactivación de las convulsiones; los científicos encuentran estos lugares mediante el mapeo de la actividad del cerebro, durante una semana, mediante una fina lámina de hasta 256 electrodos, que se coloca debajo del cráneo en la superficie externa del cerebro -estos electrodos registran la actividad del lóbulo temporal -el hogar de la corteza auditiva. "La combinación de grabaciones cerebrales de alta resolución, y los potentes algoritmos de decodificación, nos brindan una nueva experiencia subjetiva de la mente", afirma Chang.
En los experimentos, los pacientes escucharon dos muestras de habla reproducidas al mismo tiempo, en las que diferentes frases eran pronunciadas por distintos locutores. Posteriormente, se les pidió que identificaran las palabras de uno de los dos emisores. Sorprendentemente, los autores observaron que las respuestas neuronales en la corteza auditiva sólo reflejaban las del orador que los pacientes identificaban como su objetivo. El algoritmo de decodificación pudo predecir qué emisor, e incluso qué palabras específicas, estaba escuchando el sujeto, en base a los patrones neuronales. En otras palabras, se podría decir que la atención del oyente desvió al otro emisor.
"El algoritmo funcionó tan bien que pudimos predecir, no sólo las respuestas correctas, sino también cuándo los participantes prestaban atención a la palabra equivocada", concluye Chang.
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario