MADRID, 27 Sep. (EUROPA PRESS) -
Personas, como el fallecido Stephen Hawking, pueden pensar en lo que quieren decir, pero no pueden hablar porque sus músculos están paralizados. Para comunicarse, usan dispositivos que detectan los movimientos oculares o de las mejillas de una persona para deletrear palabras letra por letra; pero este proceso es lento y antinatural.
Los científicos quieren ayudar a estas personas completamente paralizadas o "encerradas" a comunicarse de forma más intuitiva desarrollando una interfaz de máquina cerebral para decodificar los comandos que el cerebro envía a la lengua, el paladar, los labios y la laringe (articuladores). La persona simplemente trataría de decir palabras y la interfaz de la máquina del cerebro (IMC) se traduciría en el habla.
Una nueva investigación de 'Northwestern Medicine' y 'Weinberg College of Arts and Sciences', en Estados Unidos, que se publica este miércoles en 'Journal of Neuroscience', ha acercado más la ciencia a la creación de interfaces máquina-cerebro-habla al desbloquear nueva información sobre cómo el cerebro codifica el habla.
Los investigadores han descubierto que el cerebro controla la producción del habla de una manera similar a cómo controla la producción de movimientos de brazos y manos. Para hacer esto, los científicos registraron señales de dos partes del cerebro y decodificaron lo que representaban estas señales.
Los científicos descubrieron que el cerebro representa los objetivos de lo que intentamos decir (el habla suena como "pa" y "ba") y los movimientos individuales que usamos para lograr esos objetivos (cómo movemos los labios, el paladar, la lengua y la laringe). Las diferentes representaciones ocurren en dos partes distintas del cerebro.
"Esto puede ayudarnos a construir mejores decodificadores de voz para los IMC, lo que nos acercará a nuestro objetivo de ayudar a las personas que están encerradas a hablar nuevamente", explica el autor principal, Marc Slutzky, profesor asociado de Neurología y Fisiología de la Escuela de Medicina Feinberg de la Universidad Northwestern y neurólogo de Northwestern.
El descubrimiento también podría ayudar a las personas con otros trastornos del habla, como la apraxia del habla, que se ve en los niños, así como después del accidente cerebrovascular en los adultos. En la apraxia del habla, un individuo tiene dificultades para traducir mensajes de voz del cerebro al lenguaje hablado.
TRADUCCIÓN DE LAS PALABRAS DEL CEREBRO AL HABLA
El habla se compone de sonidos individuales, llamados fonemas, que se producen mediante movimientos coordinados de los labios, la lengua, el paladar y la laringe. Sin embargo, los científicos no sabían exactamente cómo estos movimientos, llamados gestos articulatorios, son planeados por el cerebro. En particular, no se entendía completamente cómo la corteza cerebral controla la producción del habla, y no se ha demostrado evidencia de representación de gestos en el cerebro.
"Presumimos que las áreas motoras del habla del cerebro tendrían una organización similar para armar las áreas motoras del cerebro --dice Slutzky--. La corteza precentral representaría movimientos (gestos) de los labios, la lengua, el paladar y la laringe, y las áreas corticales de mayor nivel representarían los fonemas en mayor medida".
Eso es exactamente lo que encontraron. "Estudiamos dos partes del cerebro que ayudan a producir el habla --explica Slutzky--. La corteza precentral representaba gestos en mayor medida que los fonemas. La corteza frontal inferior, que es un área de habla de nivel más alto, representaba fonemas y gestos".
Los científicos de Northwestern registraron señales cerebrales de la superficie cortical utilizando electrodos colocados en pacientes sometidos a cirugía cerebral para extirpar tumores cerebrales. Los pacientes tenían que estar despiertos durante la cirugía, por lo que los investigadores les pidieron que leyeran las palabras de una pantalla.
Después de la cirugía, los científicos marcaron los tiempos en que los pacientes producían fonemas y gestos y usaron las señales cerebrales registradas de cada área cortical para decodificar qué fonemas y gestos se habían producido, y midieron la precisión de la decodificación.
Las señales cerebrales en la corteza precentral fueron más precisas para decodificar los gestos que los fonemas, mientras que las de la corteza frontal inferior fueron igualmente buenas en la decodificación de los fonemas y los gestos. Esta información ayudó a apoyar los modelos lingüísticos de la producción del habla.
También ayudará a los ingenieros a diseñar interfaces de máquinas cerebrales para decodificar el habla de estas áreas cerebrales. El próximo paso para la investigación es desarrollar un algoritmo para las interfaces de la máquina cerebral que no solo decodifique los gestos, sino que también combine esos gestos decodificados para formar palabras.