Los sonidos y las palabras se procesan por separado y simultáneamente en el cerebro

Archivo - Cómo el cerebro sube el volumen para escuchar a alguien en una multitud
Archivo - Cómo el cerebro sube el volumen para escuchar a alguien en una multitud - COLUMBIA'S ZUCKERMAN INSTITUTE - Archivo
Publicado: jueves, 19 agosto 2021 8:14


MADRID, 19 Ago. (EUROPA PRESS) -

Tras años de investigación, los neurocientíficos han descubierto una nueva vía en el cerebro humano que procesa los sonidos del lenguaje. Los hallazgos, publicados en la revista 'Cell', sugieren que el procesamiento auditivo y el del habla se producen en paralelo, lo que contradice una teoría largamente sostenida de que el cerebro procesa la información acústica y luego la transforma en información lingüística.

Los sonidos del lenguaje, al llegar a los oídos, son convertidos en señales eléctricas por la cóclea y enviados a una región del cerebro llamada corteza auditiva en el lóbulo temporal. Durante décadas, los científicos han pensado que el procesamiento del habla en el córtex auditivo seguía una vía en serie, similar a una cadena de montaje en una fábrica.

Se pensaba que, en primer lugar, el córtex auditivo primario procesaba la información acústica simple, como las frecuencias de los sonidos. A continuación, una región adyacente, denominada giro temporal superior (STG), extrae características más importantes del habla, como las consonantes y las vocales, transformando los sonidos en palabras con significado.

Sin embargo, esta teoría no ha sido demostrada directamente, ya que requiere grabaciones neurofisiológicas muy detalladas de todo el córtex auditivo con una resolución espacio-temporal extremadamente alta. Esto es un reto, porque el córtex auditivo primario está situado en lo más profundo de la hendidura que separa los lóbulos frontal y temporal del cerebro humano.

"Así que nos adentramos en este estudio con la esperanza de encontrar pruebas de ello: la transformación de la representación de bajo nivel de los sonidos en la representación de alto nivel de las palabras", explica el neurocientífico y neurocirujano Edward Chang, de la Universidad de California, en Estados Unidos.

A lo largo de siete años, Chang y su equipo han estudiado a nueve participantes que tuvieron que someterse a cirugías cerebrales por motivos médicos, como la extirpación de un tumor o la localización de un foco de convulsiones.

Para estos procedimientos, se colocaron matrices de pequeños electrodos que cubrían todo su córtex auditivo con el fin de recoger señales neuronales para el mapeo del lenguaje y las convulsiones. Los participantes también se prestaron a que se analizaran las grabaciones para comprender cómo la corteza auditiva procesa los sonidos del habla.

"Este estudio es la primera vez que pudimos cubrir todas estas áreas simultáneamente directamente desde la superficie del cerebro y estudiar la transformación de los sonidos en palabras", afirma Chang. Los intentos anteriores de estudiar las actividades de la región implicaban en gran medida la inserción de un cable en la zona, que sólo podía revelar las señales en un número limitado de puntos.

Cuando reprodujeron frases y oraciones cortas para los participantes, los investigadores esperaban encontrar un flujo de información desde el córtex auditivo primario hasta el STG adyacente, como propone el modelo tradicional. Si ese es el caso, las dos áreas deberían activarse una tras otra.

Sorprendentemente, el equipo descubrió que algunas áreas situadas en el STG respondían tan rápido como el córtex auditivo primario cuando se reproducían frases, lo que sugiere que ambas áreas empezaban a procesar la información acústica al mismo tiempo.

Además, como parte del mapeo clínico del lenguaje, los investigadores estimularon la corteza auditiva primaria de los participantes con pequeñas corrientes eléctricas. Si el procesamiento del habla sigue una vía serial, como sugiere el modelo tradicional, los estímulos probablemente distorsionarían la percepción del habla de los pacientes.

Por el contrario, aunque los participantes experimentaron alucinaciones de ruido auditivo inducidas por los estímulos, seguían siendo capaces de oír y repetir claramente las palabras que se les decían. Sin embargo, cuando se estimulaba el STG, los participantes informaban de que podían oír a la gente hablar, "pero no podían distinguir las palabras. De hecho, uno de los pacientes dijo que parecía que se intercambiaban las sílabas en las palabras", afirma Chang.

Las últimas pruebas sugieren que el modelo tradicional de jerarquía del procesamiento del habla está demasiado simplificado y probablemente sea incorrecto. Los investigadores especulan con la posibilidad de que el STG funcione de forma independiente -en lugar de como paso siguiente- del procesamiento en el córtex auditivo primario.

La naturaleza paralela del procesamiento del habla puede dar a los médicos nuevas ideas sobre cómo tratar enfermedades como la dislexia, en la que los niños tienen problemas para identificar los sonidos del habla.

"Aunque se trata de un importante paso adelante, todavía no entendemos muy bien este sistema auditivo paralelo --admite Chang--. Los hallazgos sugieren que el enrutamiento de la información sonora podría ser muy diferente de lo que habíamos imaginado. Sin duda, plantea más preguntas que respuestas".