Cómo los sonidos que entran en los oídos se convierten en palabras en el cerebro

Hablar al oido, secreto,
BEN WHITE/UNSPLASH - Archivo
Actualizado: viernes, 30 noviembre 2018 8:29


MADRID, 30 Nov. (EUROPA PRESS) -

Vas caminando por una calle concurrida de la ciudad y a tu alrededor hay sonidos de los trenes de metro, el tráfico y la música procedente de las tiendas. De repente, te das cuenta de que uno de los sonidos que escuchas es alguien que está hablando, y que estás escuchando de una manera diferente a medida que prestas atención a lo que dice. ¿Cómo hace esto el cerebro? ¿Y cómo de rápido sucede?

Investigadores de la Universidad de Maryland, en Estados Unidos, están aprendiendo más sobre el proceso automático por el que pasa el cerebro cuando aprende sobre el lenguaje hablado. Los neurocientíficos han comprendido durante algún tiempo que cuando escuchamos sonidos de un lenguaje comprensible, nuestros cerebros reaccionan de manera diferente a como lo hacen cuando oímos sonidos distintos al discurso o personas que hablan en idiomas que no conocemos.

Cuando escuchamos a alguien hablar en un lenguaje familiar, nuestro cerebro cambia rápidamente a prestar atención, procesa los sonidos del habla convirtiéndolos en palabras y comprende lo que se dice. En su trabajo, titulado "Transformación rápida de las representaciones auditivas a las lingüísticas del habla continua" y publicado en 'Current Biology', los científicos pudieron ver dónde estaba en el cerebro y con qué rapidez, en milisegundos, se producía la transición de las neuronas del cerebro desde procesar el sonido del habla hasta procesar las palabras del habla basadas en el lenguaje.

El documento fue escrito por el investigador postdoctoral del Instituto de Investigación de Sistemas (ISR, por sus siglas en inglés), Christian Brodbeck; el coautor L. Elliot Hong, de la Facultad de Medicina de la Universidad de Maryland, y el profesor Jonathan Z. Simon, quien tiene una cita triple en los Departamentos de Biología y Electricidad, Ingeniería informática e ISR.

"Cuando escuchamos a alguien hablar, el cambio en el procesamiento de nuestro cerebro de no importar qué tipo de sonido es a reconocerlo como una palabra sucede sorprendentemente temprano --destaca Simon--. De hecho, esto sucede casi tan pronto como la información lingüística esté disponible".

Cuando se está involucrando en la percepción del habla, la corteza auditiva del cerebro analiza patrones acústicos complejos para detectar palabras que transmiten un mensaje lingüístico. Parece que lo hace de manera tan eficiente, al menos en parte, anticipando lo que es probable que escuche: al aprender a qué es lo que suenan las señales del lenguaje más frecuentemente, el cerebro puede predecir lo que vendrá después. En general, se piensa que este proceso, localizado de forma bilateral en los lóbulos temporales superiores del cerebro, implica el reconocimiento de un nivel de sonido fonético intermedio.

En el estudio de Maryland, los científicos mapearon y analizaron la actividad cerebral neuronal de los participantes mientras escuchaban a un solo orador contando una historia. Utilizaron la magnetoencefalografía (MEG), un método de neuroimagen no invasivo común que emplea magnetómetros muy sensibles para registrar los campos magnéticos naturales producidos por las corrientes eléctricas dentro del cerebro. Normalmente, el sujeto se sienta debajo o se acuesta dentro del escáner MEG, que se asemeja a un secador de pelo de cabeza entera, pero contiene una serie de sensores magnéticos.

DISTINGUIR EL HABLA EN UNA DÉCIMA DE SEGUNDO

El estudio mostró que el cerebro reconoce rápidamente los sonidos fonéticos que componen las sílabas y las transiciones del procesamiento meramente acústico a la información lingüística se produce de una manera altamente especializada y automatizada. El cerebro tiene que mantenerse al día con las personas que hablan a una velocidad de aproximadamente tres palabras por segundo. Esto se logra, en parte, al distinguir el habla de otros tipos de sonido en aproximadamente una décima de segundo después de que el sonido entra en los oídos.

"Por lo general, pensamos que lo que el cerebro procesa tan temprano debe ser solo en el nivel del sonido, sin tener en cuenta el lenguaje --señala Simon--. Pero si el cerebro puede tener en cuenta el conocimiento del lenguaje de inmediato, en realidad procesará el sonido con mayor precisión. En nuestro estudio, vemos que el cerebro se aprovecha del procesamiento del lenguaje en la etapa más temprana posible".

En otra parte del estudio, los autores encontraron que las personas procesan selectivamente los sonidos del habla en entornos ruidosos. Aquí, los participantes escucharon una mezcla de dos oradores en un escenario de "cóctel", y se les dijo que escucharan a uno e ignoraran al otro. Los cerebros de los participantes solo procesaron el lenguaje de manera consistente para la conversación a la que se les dijo que prestaran atención, no la que se les dijo que ignoraran. Sus cerebros dejaron de procesar el habla desatendida en el nivel de detección de las formas de las palabras.

"Esto puede revelar un 'cuello de botella' en la percepción del habla de nuestros cerebros --dice Brodbeck--. Creemos que la percepción léxica funciona con nuestro cerebro considerando la coincidencia entre la señal de voz entrante y muchas palabras diferentes al mismo tiempo. Podría ser que este mecanismo involucre recursos mentales que tienen limitaciones sobre cuántas opciones diferentes se pueden analizar simultáneamente, haciendo imposible atender a más de un orador al mismo tiempo".