Así sube el volumen el cerebro para escuchar a alguien en una multitud

Gente hablando en un concierto.
Gente hablando en un concierto. - GETTY IMAGES / DEAN HINDMARCH - Archivo
Publicado: martes, 22 octubre 2019 8:00

MADRID 22 Oct. (EUROPA PRESS) -

El cerebro tienen una capacidad notable para elegir una voz entre muchas. Ahora, un equipo de neuroingenieros de la Universidad de Columbia ha descubierto los pasos que tienen lugar en el cerebro para hacer posible esta hazaña, según publican en la revista 'Neuron'.

El descubrimiento ayuda a resolver una pregunta científica clásica sobre cómo la corteza auditiva, el centro de audición del cerebro, puede decodificar y amplificar una voz sobre otras, a velocidades ultrarrápidas. Este nuevo conocimiento también puede estimular el desarrollo de tecnologías de audífonos e interfaces cerebro-computadora que se parecen más al cerebro.

"Nuestra capacidad para concentrarnos en la persona que está a nuestro lado en un cóctel mientras evitamos el ruido circundante es extraordinaria, pero sabemos muy poco acerca de cómo funciona todo", señala Nima Mesgarani, autora principal del artículo e investigadora principal del Instituto Mortimer B. Zuckerman Mind Brain Behavior de Columbia.

"El estudio de hoy brinda esa comprensión tan necesaria, que resultará crítica para los científicos e innovadores que trabajan para mejorar las tecnologías del habla y la audición", añade.

La corteza auditiva es el centro de escucha del cerebro. El oído interno envía a esta región del cerebro señales eléctricas que representan un revoltijo de ondas de sonido del mundo externo. La corteza auditiva debe entonces distinguir sonidos significativos de ese revoltijo.

"Estudiar cómo la corteza auditiva clasifica los diferentes sonidos es como tratar de descubrir qué está sucediendo en un gran lago, en el que se mueve cada bote, nadador y pez, teniendo solo los patrones de ondas en el agua como guía", ejemplifica el doctor Mesgarani, quien también es profesor asociado de ingeniería eléctrica en Columbia Engineering.

El nuevo artículo se basa en el estudio del equipo de 2012 que muestra que el cerebro humano es selectivo sobre los sonidos que escucha. Ese estudio reveló que cuando una persona escucha a alguien hablando, sus ondas cerebrales cambian para distinguir las características de la voz del hablante y desconectar otras voces. Los investigadores querían entender cómo sucede eso dentro de la anatomía de la corteza auditiva.

"Hace tiempo que sabemos que las áreas de la corteza auditiva están dispuestas en una jerarquía, con decodificación cada vez más compleja en cada etapa, pero no hemos podido observar cómo se procesa la voz de un hablante en particular a lo largo de este camino --explica James O'Sullivan, primer autor del artículo--. Para comprender este proceso, necesitábamos registrar la actividad neuronal del cerebro directamente".

Los investigadores estaban particularmente interesados en dos partes de la jerarquía de la corteza auditiva: la circunvolución de Heschl (HG) y la circunvolución temporal superior (STG). La información del oído llega primero a HG, la atraviesa y llega a STG más tarde.

Para comprender estas regiones cerebrales, los investigadores se unieron con los neurocirujanos Ashesh Mehta, Guy McKhann y Sameer Sheth, y la neuróloga Catherine Schevon, así como con otros coautores José Herrero y Elliot Smith. Con base en el Centro Médico Irving de la Universidad de Columbia y Northwell Health, estos médicos tratan a pacientes con epilepsia, algunos de los cuales deben someterse a cirugías cerebrales regulares.

Para este estudio, los pacientes se ofrecieron como voluntarios para escuchar grabaciones de personas que hablaban mientras los doctores Mesgarani y O'Sullivan monitorearon sus ondas cerebrales a través de electrodos implantados en las regiones HG o STG de los pacientes.

Los electrodos permitieron al equipo identificar una distinción clara entre los roles de las dos áreas del cerebro en la interpretación de los sonidos. Los datos mostraron que HG crea una representación rica y multidimensional de la mezcla de sonido, por lo que cada altavoz está separado por diferencias de frecuencia. Esta región no mostró preferencia por una voz u otra. Sin embargo, los datos recopilados de STG cuentan una historia claramente diferente.

"Descubrimos que es posible amplificar la voz de un hablante u otro ponderando correctamente la señal de salida que proviene de HG. Según nuestras grabaciones, es posible que la región STG realice esa ponderación", señala el doctor O'Sullivan.

Tomados en conjunto, estos hallazgos revelan una clara división de deberes entre estas dos áreas de la corteza auditiva: HG representa, mientras que STG selecciona. Todo sucede en alrededor de 150 milisegundos, lo que parece instantáneo para un oyente.

Los investigadores también encontraron un papel adicional para STG. Después de la selección, STG formó un objeto auditivo, una representación del sonido que es análoga a nuestras representaciones mentales de los objetos que vemos con nuestros ojos.

Esto demuestra que incluso cuando una voz está oscurecida por otro hablante, como cuando dos personas hablan entre sí, STG puede representar al orador deseado como un todo unificado que no se ve afectado por el volumen de la voz competidora.

La información obtenida aquí podría usarse como base para algoritmos que replican este proceso biológico artificialmente, como en los audífonos. A principios de este año, el doctor Mesgarani y su equipo anunciaron el desarrollo de un audífono controlado por el cerebro, que utiliza uno de estos algoritmos para amplificar los sonidos de un altavoz sobre otro.

Los investigadores planean estudiar la actividad de HG y STG en escenarios cada vez más complejos que tienen más oradores o incluyen señales visuales. Estos esfuerzos ayudarán a crear una imagen detallada y precisa de cómo funciona cada área de la corteza auditiva.

"Nuestro objetivo final es comprender mejor cómo el cerebro nos permite escuchar tan bien, así como crear tecnologías que ayuden a las personas, ya sea para que los sobrevivientes de un derrame cerebral puedan hablar con sus seres queridos, o para que las personas con discapacidad auditiva puedan conversar más fácilmente en una fiesta llena de gente --señala el doctor Mesgarani--. Y el estudio de hoy es un punto crítico en ese camino".