Identifican las neuronas que responden al oír cantar

Archivo - Amigos cantando
Archivo - Amigos cantando - JOVANMANDIC/ ISTOCK - Archivo
Publicado: miércoles, 23 febrero 2022 7:27

MADRID, 23 Feb. (EUROPA PRESS) -

Neurocientíficos del Instituto Tecnológico de Massachusetts (MIT), en Estados Unidos, han identificado por primera vez una población de neuronas en el cerebro humano que se ilumina al oir cantar cantar, pero no ante otros tipos de música, según publican en la revista en la revista 'Current Biology'.

Estas neuronas, que se encuentran en el córtex auditivo, parecen responder a la combinación específica de voz y música, pero no al habla normal ni a la música instrumental. Los investigadores afirman que se desconoce qué es lo que hacen exactamente y que habrá que seguir trabajando para descubrirlo.

"El trabajo proporciona evidencia de una segregación relativamente fina de la función dentro de la corteza auditiva, de una manera que se alinea con una distinción intuitiva dentro de la música", explica Sam Norman-Haignere, un expostdoctorado del MIT que ahora es profesor asistente de neurociencia en el Centro Médico de la Universidad de Rochester.

El trabajo se basa en un estudio de 2015 en el que el mismo equipo de investigación utilizó imágenes de resonancia magnética funcional (fMRI) para identificar una población de neuronas en la corteza auditiva del cerebro que responde específicamente a la música. En el nuevo trabajo, los investigadores utilizaron grabaciones de la actividad eléctrica tomadas en la superficie del cerebro, lo que les proporcionó información mucho más precisa que la fMRI.

"Hay una población de neuronas que responde al canto, y muy cerca hay otra población de neuronas que responde ampliamente a mucha música. A escala de la RMNf, están tan cerca que no se pueden separar, pero con las grabaciones intracraneales obtenemos una resolución adicional, y eso es lo que creemos que nos permitió distinguirlas", explica Norman-Haignere, autor principal del estudio junto con Josh McDermott, profesor asociado de ciencias cerebrales y cognitivas, y Nancy Kanwisher, catedrática de neurociencia cognitiva Walter A. Rosenblith, ambos miembros del Instituto McGovern de Investigación Cerebral del MIT y del Centro de Cerebros, Mentes y Máquinas (CBMM).

En su estudio de 2015, los investigadores utilizaron la IRMf para escanear los cerebros de los participantes mientras escuchaban una colección de 165 sonidos, entre los que se encontraban diferentes tipos de habla y música, así como sonidos cotidianos como el golpeteo de un dedo o el ladrido de un perro.

Para ese estudio, los investigadores idearon un novedoso método de análisis de los datos de la IRMf, que les permitió identificar seis poblaciones neuronales con diferentes patrones de respuesta, incluida la población selectiva a la música y otra población que responde selectivamente al habla.

En el nuevo estudio, los investigadores esperaban obtener datos de mayor resolución mediante una técnica conocida como electrocorticografía (ECoG), que permite registrar la actividad eléctrica mediante electrodos colocados dentro del cráneo. Esto ofrece una imagen mucho más precisa de la actividad eléctrica en el cerebro en comparación con la IRMf, que mide el flujo sanguíneo en el cerebro como indicador de la actividad neuronal.

"Con la mayoría de los métodos de la neurociencia cognitiva humana, no se pueden ver las representaciones neuronales --señala Kanwisher--. La mayor parte de los datos que podemos recoger nos dicen que aquí hay un trozo de cerebro que hace algo, pero eso es bastante limitado. Queremos saber qué está representado ahí".

La electrocorticografía no puede realizarse normalmente en seres humanos porque es un procedimiento invasivo, pero se utiliza a menudo para controlar a los pacientes con epilepsia que están a punto de someterse a una operación para tratar sus convulsiones.

Los pacientes son monitorizados durante varios días para que los médicos puedan determinar dónde se originan los ataques antes de operar. Durante ese tiempo, si los pacientes están de acuerdo, pueden participar en estudios que consisten en medir su actividad cerebral mientras realizan determinadas tareas. Para este estudio, el equipo del MIT pudo reunir datos de 15 participantes durante varios años.

Para estos participantes, los investigadores reprodujeron el mismo conjunto de 165 sonidos que utilizaron en el anterior estudio de IRMf. La ubicación de los electrodos de cada paciente fue determinada por sus cirujanos, por lo que algunos no captaron ninguna respuesta a la entrada auditiva, pero muchos sí. Mediante un novedoso análisis estadístico que desarrollaron, los investigadores pudieron inferir los tipos de poblaciones neuronales que producían los datos registrados por cada electrodo.

"Cuando aplicamos este método a este conjunto de datos, surgió este patrón de respuesta neuronal que sólo respondía al canto --recuerda Norman-Haignere--. Fue un hallazgo que realmente no esperábamos, así que justifica en gran medida el objetivo del método, que es revelar cosas potencialmente novedosas que no se podría pensar en buscar".

Esa población de neuronas específica para la canción tenía respuestas muy débiles al habla o a la música instrumental, y por tanto es distinta de las poblaciones selectivas para la música y el habla identificadas en su estudio de 2015.

En la segunda parte de su estudio, los investigadores idearon un método matemático para combinar los datos de las grabaciones intracraneales con los datos de fMRI de su estudio de 2015. Dado que la fMRI puede cubrir una porción mucho mayor del cerebro, esto les permitió determinar con mayor precisión las ubicaciones de las poblaciones neuronales que responden al canto.

"Esta forma de combinar el ECoG y la fMRI es un avance metodológico importante --subraya McDermott--. Mucha gente ha estado haciendo ECoG en los últimos 10 o 15 años, pero siempre ha estado limitado por este problema de la escasez de las grabaciones. Sam es realmente la primera persona que descubrió cómo combinar la resolución mejorada de los registros de electrodos con los datos de fMRI para obtener una mejor localización de las respuestas globales", añade.

El punto caliente específico de la canción que encontraron se encuentra en la parte superior del lóbulo temporal, cerca de las regiones que son selectivas para el lenguaje y la música. Esta localización sugiere que la población específica de la canción puede responder a características como el tono percibido, o la interacción entre las palabras y el tono percibido, antes de enviar la información a otras partes del cerebro para su posterior procesamiento, dicen los investigadores.

Los investigadores esperan ahora saber más sobre qué aspectos del canto impulsan las respuestas de estas neuronas. También están trabajando con el laboratorio de la profesora del MIT Rebecca Saxe para estudiar si los bebés tienen áreas selectivas para la música, con la esperanza de aprender más sobre cuándo y cómo se desarrollan estas regiones del cerebro.