MADRID, 9 Mar. (EUROPA PRESS) -
Al igual que una radio sintoniza con una emisora para escuchar una frecuencia determinada, nuestro cerebro también es capaz de sincronizarse con las ondas sonoras emitidas por el hablante para extraer la información lingüística, según ha puesto de manifiesto un nuevo estudio del Basque Center on Cognition, Brain and Language (BCBL).
Este mecanismo cerebral, que varía según las palabras, sílabas o frases que se emplea, permite interactuar con otras personas y extraer los datos necesarios para comunicarse. Sin embargo, hasta el momento se desconocía si esta sincronización dependía también del conocimiento del idioma en el que hablábamos.
Para dar respuesta a esta pregunta, el BCBL puso en marcha un estudio, que ha durado cinco años y ha sido publicado en la revista neurocientífica 'Cerebral Cortex', con el objetivo de determinar si la sincronización entre el habla y la actividad cerebral depende del nivel de aprendizaje de un idioma.
"La actividad neuronal en regiones auditivas es capaz de sincronizarse con el habla para extraer la información de la señal, de la misma forma que una radio se sincroniza con las ondas para escuchar la frecuencia que marcamos", ha explicado el experto del BCBL que ha trabajado en el proyecto, Mikel Lizarazu.
Para averiguar si existía una relación entre la sincronización de la señal del habla en nuestro cerebro y el nivel de comprensión del idioma del hablante, el centro vasco reclutó a diferentes participantes bilingües; personas hablantes nativas de castellano que estaban aprendiendo euskera en tres niveles diferentes del 'Euskaltegi BAI&BY': principiante, intermedio y avanzado.
Mediante técnicas de neuroimagen, los responsables de la investigación analizaron cómo varía la sincronización entre habla y cerebro con el aprendizaje de un segundo idioma, en este caso el euskera, escogido por sus semejanzas fonológicas con el castellano.
"Utilizamos la técnica de la magnetoencefalografía (MEG) para registrar la actividad cerebral de los participantes mientras escuchaban hablar en castellano y euskera", ha añadido Lizarazu. Estos estímulos orales se grabaron previamente y los participantes los escucharon en la prueba de MEG a través de altavoces.
APOYO DE LOS ALGORITMOS
Los investigadores consiguieron en total datos cerebrales de 13 participantes por cada nivel de aprendizaje. Mediante algoritmos avanzados, calcularon el nivel de sincronización entre la señal del habla y la actividad cerebral de los estudiantes para cada idioma. Después compararon los valores de sincronización entre los diferentes lenguajes y niveles de comprensión de los estudiantes.
"Observamos que los valores de sincronización en las regiones auditivas eran mayores para el castellano en general. También vimos que la sincronización era más fuerte para los estudiantes de mayor nivel en el caso del euskera, mientras que en el castellano no se apreciaban esas variaciones", ha recordado el experto.
Estas evidencias indicaron a los investigadores que la comprensión de un segundo idioma, en este caso el euskera, está relacionada con el grado de sincronización entre la señal del habla en esa lengua y la actividad cerebral. "Vimos diferencias cuando los participantes escuchaban hablar euskera. Al subir la competencia del idioma, la sincronización del cerebro con el euskera también mejoraba", ha precisado el experto.
Por último, averiguaron que las regiones de las áreas temporales, frontales y motoras del cerebro controlaban y modulaban la sincronización al habla en las regiones auditivas. "Cuanto mayor era la conectividad entre estas regiones y la corteza auditiva, mayor era la sincronización entre habla y cerebro en las regiones auditivas", ha zanjado Lizarazu.