MADRID, 23 Feb. (EUROPA PRESS) -
Neurocientíficos del 'Trinity College' de Dublín, en Irlanda, y la Universidad de Rochester, en Estados Unidos, han identificado una señal cerebral específica asociada con la conversión del habla en comprensión. La señal está presente cuando el oyente ha entendido lo que han escuchado, pero está ausente cuando o no entendió o no prestó atención.
La singularidad de la señal significa que podría tener una serie de posibles aplicaciones, como el seguimiento del desarrollo del lenguaje en bebés, la evaluación de la función cerebral en pacientes que no responden o la determinación del inicio temprano de la demencia en personas mayores.
Durante nuestras interacciones cotidianas, habitualmente hablamos a velocidades de 120 a 200 palabras por minuto. Para que los oyentes comprendan el habla a estas tasas, y para no perder el hilo de la conversación, los cerebros deben comprender el significado de cada una de estas palabras muy rápidamente. Es una hazaña asombrosa del cerebro humano que hacemos tan fácilmente, especialmente dado que el significado de las palabras puede variar mucho según el contexto. Por ejemplo, la palabra 'bat' en inglés significa cosas muy diferentes en las siguientes dos oraciones: "Vi un murciélago (bat) volando sobre mi cabeza anoche"; "El jugador de béisbol bateó (bat) un 'homerun' con su bate favorito".
Sin embargo, hasta ahora, no estaba claro cómo calculan nuestros cerebros el significado de las palabras en el contexto. El nuevo enfoque, que se detalla en un artículo publicado este jueves en la revista internacional 'Current Biology', muestra que nuestros cerebros realizan un cálculo rápido de la similitud en el significado que tiene cada palabra con las palabras que nos han llegado inmediatamente antes.
Para descubrir esto, los investigadores comenzaron explotando las técnicas más avanzadas que permiten que los ordenadores modernos y los teléfonos inteligentes "entiendan" el habla. Estas técnicas son bastante diferentes de cómo funcionan los humanos. La evolución humana ha sido tal que los bebés vienen más o menos cableados para aprender a hablar sobre la base de un número relativamente pequeño de ejemplos de habla. Por otro lado, los ordenadores necesitan una gran cantidad de entrenamiento, pero debido a que son rápidos, pueden lograr este entrenamiento muy rápidamente.
Por lo tanto, uno puede entrenar un ordenador dándole muchos ejemplos (por ejemplo, toda la Wikipedia) y pidiéndole que reconozca qué pares de palabras aparecen mucho juntos y cuáles no. Al hacer esto, el ordenador comienza a "entender" que las palabras que aparecen juntas regularmente, como "tarta" y "pastel", deben significar algo similar. Y, de hecho, el ordenador termina con un conjunto de medidas numéricas que capturan cuán similar es una palabra a otra.
POSIBLE UTILIDAD PARA VALORAR LA APARICIÓN DE DEMENCIA
Para probar si los cerebros humanos realmente calculan la similitud entre las palabras mientras escuchamos el habla, los investigadores registraron señales de ondas cerebrales eléctricas registradas en el cuero cabelludo humano, una técnica conocida como electroencefalografía o EEG, mientras los participantes escuchaban varios audiolibros. Luego, al analizar su actividad cerebral, identificaron una respuesta cerebral específica que reflejaba cómo de similar o diferente era una palabra dada de las palabras que la precedieron en la historia.
Fundamentalmente, esta señal desapareció por completo cuando los sujetos o no podían entender el habla (porque era demasiado ruidoso), o cuando simplemente no le prestaban atención. Por lo tanto, esta señal representa una medida extremadamente sensible de si una persona está realmente entendiendo el discurso que está escuchando y, como tal, tiene una serie de posibles aplicaciones importantes.
El profesor asistente en la Escuela de Ingeniería del 'Trinity College' en Dublín, el Instituto de Neurociencia del 'Trinity College' y el Centro de Bioingeniería de Trinity, Ed Lalor, dirigió la investigación. "Las aplicaciones potenciales incluyen pruebas de desarrollo del lenguaje en bebés, o determinar el nivel de función cerebral en pacientes en un estado reducido de conciencia", afirma este experto.
"La presencia o ausencia de la señal también puede confirmar si una persona en un trabajo que exige precisión y las reacciones rápidas --como un controlador de tránsito aéreo o un soldado-- ha entendido las instrucciones que ha recibido, y tal vez incluso sean útiles para evaluar la aparición de demencia en personas mayores según su capacidad para seguir una conversación", plantea el profesor Lalor.
"Hay más trabajo por hacer antes de comprender completamente la gama completa de cálculos que nuestros cerebros realizan cuando entendemos el habla. Sin embargo, ya hemos comenzado a buscar otras formas en que nuestros cerebros puedan calcular el significado, y cómo esos cálculos difieren de aquellos realizado por ordenadores. Esperamos que el nuevo enfoque suponga una gran diferencia cuando se aplique de alguna de las maneras que imaginamos", concluye.