Esta parte del cerebro reconoce las expresiones faciales

Caras, gestos, gente
GETTY//BOWIE15
Actualizado: jueves, 21 abril 2016 6:20

   MADRID, 21 Abr. (EUROPA PRESS) -

   Investigadores de la Universidad Estatal de Ohio, en Estados Unidos, han identificado el área del cerebro responsable de reconocer las expresiones faciales humanas. Está en el lado derecho del cerebro detrás de la oreja, en una región llamada surco temporal superior posterior (pSTS).

   En un artículo publicado en la revista 'Journal of Neuroscience', los investigadores informan que utilizaron la resonancia magnética funcional (fMRI) para identificar una región de pSTS como la parte del cerebro que se activa cuando los sujetos analizados miraban imágenes de personas poniendo diferentes expresiones faciales.

   Además, los científicos han descubierto que los patrones neuronales dentro de los pSTS están especializados para reconocer el movimiento en partes específicas de la cara. Un patrón está afinado para detectar el ceño fruncido, otro está sintonizado para detectar la extensión de los labios en una sonrisa, y así sucesivamente.

   "Eso sugiere que nuestro cerebro decodifica las expresiones faciales mediante la suma de series de movimientos de músculos clave en el rostro de la persona a la que estamos mirando", dice Aleix Martínez, científico cognitivo y profesor de Ingeniería Eléctrica e Informática en la Universidad de Ohio.

   Martínez dice que él y su equipo fueron capaces de crear un algoritmo de aprendizaje automático que utiliza esta actividad cerebral para identificar qué expresión facial está mirando una persona basándose únicamente en la señal de resonancia magnética funcional. "Los seres humanos utilizan un gran número de expresiones faciales para transmitir emociones, otras señales de comunicación no verbal y el lenguaje", dice Martínez.

   "Sin embargo, cuando vemos a alguien poner una cara, lo reconocemos al instante, aparentemente sin conocimiento consciente. En términos computacionales, una expresión facial puede codificar la información y nos hemos preguntado durante mucho tiempo cómo el cerebro es capaz de decodificar esta información de manera eficiente. Ahora sabemos que hay una pequeña parte del cerebro dedicada a esta tarea", añade.

   Usando estos datos de resonancia magnética funcional, los investigadores desarrollaron un algoritmo de aprendizaje automático que tiene una tasa de éxito del 60 por ciento en la descodificación de las expresiones faciales humanas, con independencia de la expresión facial y con independencia de la persona la ve.

   "Eso es un desarrollo muy potente, ya que sugiere que la codificación de expresiones faciales es muy similar en su cerebro y mi cerebro y el cerebro más de todos los demás", subraya Martínez. El estudio no dice nada acerca de personas que exhiben funcionamiento neuronal atípico, pero podría dar a los investigadores nuevos conocimientos, según la coautora del estudio Julie Golomb, profesora asistente de Psicología y directora del Laboratorio de Neurociencia Cognitiva y Visión de la Universidad Estatal de Ohio.

   "Este trabajo podría tener una variedad de aplicaciones, ayudándonos a comprender no sólo cómo el cerebro procesa las expresiones faciales, sino en última instancia, cómo este proceso puede ser diferente en las personas con autismo, por ejemplo", dice esta experta.

UN ALGORITMO QUE ILUMINA QUÉ SUCEDE EN ESA ÁREA

   El estudiante de doctorado Ramprakash Srinivasan, Golomb y Martínez colocaron a diez estudiantes universitarios en una máquina de resonancia magnética funcional y les mostraron más de mil fotografías de personas poniendo expresiones faciales. Las expresiones corresponden a siete categorías emocionales diferentes: disgustado, gratamente sorprendido, felizmente disgustado, furiosamente sorprendido, terriblemente sorprendido, tristemente temeroso y terriblemente disgustado.

   Mientras que algunas de las expresiones eran positivas y otras negativas, todas ellas tenían algunos puntos en común. Por ejemplo, "gratamente sorprendido", "furiosamente sorprendido" y "terriblemente sorprendido", todos incluyen cejas levantadas, aunque otras partes de la cara difieren cuando expresamos estas tres emociones.

   fMRI detectó un aumento del flujo sanguíneo en el cerebro, por lo que el grupo de investigación fue capaz de obtener imágenes de la parte del cerebro que se activa cuando los estudiantes reconocen diferentes expresiones. Independientemente de la expresión que estaban viendo, todos los estudiantes mostraron una mayor actividad en la misma región: pSTS.

   A continuación, el grupo de investigación empleó un ordenador para hacer una referencia cruzada de las imágenes de resonancia magnética funcional con los diferentes movimientos de los músculos faciales que se mostraron en las fotografías de prueba. Fueron capaces de crear un mapa de las regiones dentro de los pSTS que se activaron para diferentes grupos de músculos faciales, como los músculos de las cejas o los labios.

   En primer lugar, construyeron mapas usando los fMRI de nueve de los participantes. A continuación, alimentaron el algoritmo de las imágenes de resonancia magnética funcional a partir del décimo estudiante, y se les pidió que identificaran las expresiones que el estudiante estaba mirando y después se repitió el experimento, creando el mapa a partir de cero con los datos de nueve de los estudiantes, pero usando un estudiante diferente como décimo sujeto.

   Alrededor del 60 por ciento de las veces, el algoritmo fue capaz de identificar con precisión la expresión facial que la décima persona estaba mirando, basándose únicamente en la imagen de resonancia magnética funcional de esa persona. Martínez calificó los resultados como "muy positivos" y dice que indican que el algoritmo avanza a pasos agigantados hacia una comprensión de qué sucede en esa región del cerebro.