MADRID 22 Sep. (EUROPA PRESS) -
Investigadores de la Universidad de California en Berkeley (Estados Unidos) han decodificado y reconstruido la experiencia visual dinámica, en este caso, mediante 'trailers' de películas de Hollywood, consiguiendo una mezcla vanguardista de imágenes del cerebro y de simulación por ordenador a través de la que han vislumbrado escenarios futuristas que, quizás, permitan a largo plazo observar las imágenes de la mente de un paciente en coma, o ver un sueño propio en YouTube. El estudio ha sido publicado en la revista 'Current Biology'.
Utilizando una resonancia magnética funcional (fMRI, por sus siglas en inglés) y modelos computacionales, los investigadores de Berkeley han tenido éxito decodificando y reconstruyendo experiencias visuales dinámicas, en este caso mientras los sujetos del estudio visionaban 'trailer' de películas de Hollywood.
Hasta el momento, la única tecnología disponible solo era capaz de reconstruir imágenes en movimiento que las personas ya habían visto. Sin embargo, este gran avance abre el camino para la reproducción de películas dentro de nuestra cabeza que nadie más ve, como sueños y recuerdos. "Este es un gran paso hacia la reconstrucción de imágenes internas", afirma el profesor Jack Gallant, neurocientífico de la Universidad de Berkeley y coautor del estudio.
Con el tiempo, las aplicaciones prácticas de esta tecnología podrían incluir una mejor comprensión de lo que sucede en las mentes de las personas que no pueden comunicarse verbalmente, como las víctimas de un accidente cerebrovascular, los pacientes en coma y las personas con enfermedades neurodegenerativas. También puede sentar las bases para el desarrollo de la interfaz cerebro-máquina, de manera que las personas con parálisis cerebral, por ejemplo, puedan guiar computadoras con sus mentes. Sin embargo, los investigadores señalan que la tecnología está a décadas de permitir a los usuarios leer los pensamientos de los demás y sus intenciones.
Anteriormente, Gallant y sus colaboradores registraron la actividad cerebral en la corteza visual, mientras un sujeto observaba fotografías en blanco y negro, construyendo un modelo computacional que les permitió predecir con una exactitud abrumadora la imagen que la persona estaba mirando.
En este último experimento, los investigadores han resuelto un problema mucho más difícil decodificando señales cerebrales generadas por imágenes en movimiento. "Nuestra experiencia visual natural es como ver una película", explica Shinji Nishimoto, autor principal del estudio e investigador en el laboratorio de Gallant, "para que esta tecnología tenga una amplia aplicación, tenemos que entender cómo procesa el cerebro las experiencias visuales dinámicas".
Nishimoto y otros dos miembros del equipo de investigación sirvieron como sujetos para el experimento, ya que el procedimiento requiere que los voluntarios a permanezcan inmóviles dentro del escáner durante horas. Visionaron dos conjuntos separados de 'trailers' de películas de Hollywood, mientras que la fMRI medía el flujo sanguíneo de la corteza visual --la parte del cerebro que procesa la información visual. En el ordenador, el cerebro se dividió en pequeños cubos tridimensionales conocidos como píxeles volumétricos, o 'voxels'. "Hemos construido un modelo para cada voxel que describe cómo se forma la información del movimiento en la película asignada a la actividad del cerebro", explica Nishimoto.
La actividad cerebral registrada mientras que los sujetos visionaban la primera serie de clips se introdujo en un programa de ordenador, segundo a segundo, para asociar patrones visuales de la película con la actividad cerebral correspondiente.
Del mismo modo, la actividad cerebral evocada por el segundo conjunto de clips se utilizó para probar el algoritmo de reconstrucción de la película. Esto se llevó a cabo introduciendo 18 millones de segundos de vídeos de YouTube al azar en el programa informático para que pudiese predecir la actividad cerebral que cada clip de película evocaba.
Finalmente, los 100 clips que el programa informático decidió que eran los más parecidos al clip que el sujeto había visto, se fusionaron para producir una reconstrucción borrosa pero continua de la película original.
La reconstrucción de las películas con imágenes cerebrales ha sido un desafío debido a que los cambios en el flujo de sangre medido con fMRI es mucho más lento que las señales neuronales que codifican la información dinámica en las películas. Por esta razón, la mayoría de los intentos anteriores para decodificar la actividad del cerebro se han centrado en imágenes estáticas.
"Hemos abordado este problema mediante el desarrollo de un modelo de dos etapas que describen por separado la población neural subyacente y las señales del flujo sanguíneo", dice Nishimoto, y añade que "los científicos necesitamos comprender cómo procesa el cerebro la dinámica de los acontecimientos visuales que experimentamos en la vida cotidiana, pero para ello tenemos que entender primero cómo funciona el cerebro mientras estamos viendo películas".