MADRID 7 Jun. (EUROPA PRESS) -
El cerebro trata el habla en una habitación abarrotada de forma diferente dependiendo de lo fácil que sea oírla y de si nos estamos concentrando en ella, según un estudio, publicado en la revista de acceso abierto 'PLOS Biology'. Los hallazgos podrían ayudar a mejorar los audífonos que funcionan aislando el habla escuchada.
Los investigadores, dirigidos por el doctor Nima Mesgarani, de la Universidad de Columbia (Estados Unidos), utilizaron una combinación de grabaciones neuronales y modelos informáticos para demostrar que cuando seguimos el habla ahogada por voces más altas, la información fonética se codifica de forma diferente que en la situación contraria.
Concentrarse en el habla en una sala llena de gente puede ser difícil, sobre todo cuando hay otras voces más altas. Sin embargo, amplificar todos los sonidos por igual apenas mejora la capacidad de aislar las voces difíciles de oír, y los audífonos que sólo amplifican el habla atendida siguen siendo demasiado imprecisos para su uso práctico.
Para comprender mejor cómo se procesa el habla en estas situaciones, los investigadores de la Universidad de Columbia registraron la actividad neuronal de electrodos implantados en el cerebro de personas con epilepsia sometidas a cirugía cerebral. Se pidió a los pacientes que prestaran atención a una sola voz, que a veces era más alta que otra ("vislumbrada") y a veces más baja ("enmascarada").
Los investigadores utilizaron las grabaciones neuronales para generar modelos predictivos de la actividad cerebral. Los modelos mostraron que la información fonética del habla "vislumbrada" se codificaba tanto en el córtex auditivo primario como en el secundario del cerebro, y que la codificación del habla atendida era mayor en el córtex secundario. En cambio, la información fonética del habla "enmascarada" sólo se codificaba si se trataba de la voz atendida.
Por último, la codificación del habla se producía más tarde en el caso del habla "enmascarada" que en el del habla "vislumbrada". Dado que la información fonética "vislumbrada" y "enmascarada" parecen codificarse por separado, centrarse en descifrar sólo la parte "enmascarada" del habla atendida podría conducir a mejorar los sistemas de decodificación de la atención auditiva para audífonos controlados por el cerebro.
Vinay Raghavan, autor principal del estudio, explica que, "cuando escuchas a alguien en un lugar ruidoso, tu cerebro recupera lo que te has perdido cuando el ruido de fondo es demasiado alto. Tu cerebro también puede captar fragmentos del habla en los que no estás concentrado, pero sólo cuando la persona a la que escuchas es silenciosa en comparación".