MADRID, 10 Mar. (EUROPA PRESS) -
El habla y la música son dos actividades fundamentalmente humanas que se decodifican en diferentes hemisferios cerebrales. Un nuevo estudio que publica este jueves la revista 'Science' utilizó un enfoque único para revelar por qué se produce esta especialización.
Investigadores del The Neuro (Montreal Neurological Institute-Hospital) de la Universidad McGill crearon 100 grabaciones a capella, cada una de una soprano cantando una oración. Luego distorsionaron las grabaciones a lo largo de dos dimensiones auditivas fundamentales: dinámicas espectrales y temporales, y hicieron que 49 participantes distinguieran las palabras o las melodías de cada canción.
El experimento se realizó en dos grupos de hablantes de inglés y francés para mejorar la reproducibilidad y la generalización y descubrieron que para ambos idiomas, cuando la información temporal estaba distorsionada, los participantes tenían problemas para distinguir el contenido del discurso, pero no la melodía.
Por el contrario, cuando la información espectral se distorsionaba, tenían problemas para distinguir la melodía, pero no el discurso. Esto muestra que el habla y la melodía dependen de diferentes características acústicas.
Para probar cómo responde el cerebro a estas diferentes características de sonido, los participantes fueron escaneados con imágenes de resonancia magnética funcional (fMRI) mientras distinguían los sonidos. Los investigadores encontraron que el procesamiento del habla se produjo en la corteza auditiva izquierda, mientras que el procesamiento melódico se produjo en la corteza auditiva derecha.
Luego se propusieron probar cómo la degradación en cada dimensión acústica afectaría la actividad cerebral. Descubrieron que la degradación de la dimensión espectral solo afectaba la actividad en la corteza auditiva derecha, y solo durante la percepción de la melodía, mientras que la degradación de la dimensión temporal afectaba solo a la corteza auditiva izquierda, y solo durante la percepción del habla. Esto muestra que la respuesta diferencial en cada hemisferio depende del tipo de información acústica en el estímulo.
Estudios anteriores en animales han encontrado que las neuronas en la corteza auditiva responden a combinaciones particulares de energía espectral y temporal, y están muy sintonizadas con los sonidos que son relevantes para el animal en su entorno natural, como los sonidos de comunicación. Para los humanos, tanto el habla como la música son medios importantes de comunicación.
Este estudio muestra que la música y el habla explotan diferentes extremos del continuo espectro-temporal, y que la especialización hemisférica puede ser la forma del sistema nervioso de optimizar el procesamiento de estos dos métodos de comunicación.
"Se sabe desde hace décadas que los dos hemisferios responden al habla y la música de manera diferente, pero la base fisiológica de esta diferencia sigue siendo un misterio --explica Philippe Albouy, primer autor del estudio--. Aquí mostramos que esta especialización hemisférica está vinculada a características acústicas básicas que son relevantes para el habla y la música, vinculando así el hallazgo al conocimiento básico de la organización neuronal".