MADRID, 5 May. (EUROPA PRESS) -
Una nueva generación de extremidades protésicas que permitirán al usuario alcanzar objetos automáticamente, sin pensar --igual que una mano real-- se van a probar por primera vez. Dirigida por ingenieros biomédicos de la Universidad de Newcastle, Reino Unido, y financiada por el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC, por sus siglas en inglés) británico, la mano biónica está equipada con una cámara que instantáneamente toma una fotografía del objeto frente a ella, evalúa su forma y tamaño y desencadena una serie de movimientos en la mano.
Al puentear los procesos habituales que requieren que el usuario vea el objeto, estimular físicamente los músculos en el brazo y desencadenar un movimiento en la extremidad protésica, la mano 've' y reacciona en un movimiento fluido. Un pequeño número de amputados ya han probado la nueva tecnología y ahora el equipo de la Universidad de Newcastle está trabajando con expertos en 'Newcastle upon Tyne Hospitales NHS Foundation Trust' para ofrecer las "manos con ojos" a pacientes en el 'Newcastle Freeman Hospital'.
El coautor del estudio, el doctor Kianoush Nazarpour, profesor titular de Ingeniería Biomédica en la Universidad de Newcastle, explica: "Los miembros protésicos han cambiado muy poco en los últimos 100 años: el diseño es mucho mejor y los materiales son más ligeros y más duraderos, pero todavía funcionan de la misma manera. Usando la visión por ordenador, hemos desarrollado una mano biónica que puede responder automáticamente. De hecho, al igual que una mano real, el usuario puede alcanzar y coger una taza o una galleta con nada más que un rápido vistazo en la dirección correcta".
"La capacidad de respuesta ha sido uno de los principales obstáculos para las extremidades artificiales, ya que para muchos amputados el punto de referencia es su brazo o pierna sanos, por lo que las prótesis parecen lentas e incómodas en comparación. Ahora, por primera vez en un siglo, hemos desarrollado una mano 'intuitiva' que puede reaccionar sin pensar", afirma este experto, cuyo trabajo se detalla en un artículo que se publica este miércoles en 'Journal of Neural Engineering'.
VISIÓN ARTIFICIAL PARA MANOS PROTÉSICAS
Estadísticas recientes muestran que en Reino Unido hay alrededor de 600 amputados de miembros superiores cada año, de los cuales el 50 por ciento está en el rango de edad de 15-54 años de edad. En Estados Unidos, hay 500.000 amputados de miembros superiores al año. Las manos prostéticas actuales se controlan a través de señales mioeléctricas, es decir, la actividad eléctrica de los músculos registrada desde la superficie de la piel del muñón.
Controlarlos, dice el doctor Nazarpour, necesita práctica, concentración y, principalmente, tiempo. Mediante el uso de redes neuronales --la base de la Inteligencia Artificial--, la autora principal del estudio, Ghazal Ghazaei, mostró al ordenador numerosas imágenes de objetos y le enseñó a reconocer el "agarre" necesario para diferentes objetos.
"Mostramos a la computadora una imagen de, por ejemplo, un palo --explica Ghazaei, quien realizó el trabajo como parte de su doctorado en la Escuela de Ingeniería Eléctrica y Electrónica de la Universidad de Newcastle--. Pero no sólo una imagen, sino muchas imágenes del mismo palo de diferentes ángulos y orientaciones, incluso bajo distintas luces y contra diferentes fondos y, eventualmente, el ordenador aprende lo que necesita para coger ese palo".
"Por lo tanto, el ordenador no sólo está haciendo coincidir una imagen, sino que está aprendiendo a reconocer objetos y agruparlos de acuerdo con el tipo de agarre que la mano tiene que realizar para cogerlo con éxito. Esto es lo que le permite evaluar y recoger con precisión un objeto que nunca había visto antes, un gran paso adelante en el desarrollo de los miembros biónicos", detalla.
Agrupando objetos por tamaño, forma y orientación, según el tipo de agarre que se necesite para recogerlos, el equipo programó la mano para realizar cuatro "agarres" diferentes: la palma de la mano neutral (como cuando agarra una taza); la palma de la mano hacia arriba (como cuando se sujeta el mando de la televisión); trípode (usando el pulgar y dos dedos) y pellizco (el pulgar y el dedo índice).
Usando una cámara de 99p ajustada a la prótesis, la mano 've' un objeto, escoge el mejor agarre y envía una señal a la mano, todo en cuestión de milisegundos y diez veces más rápido que cualquier otra extremidad actualmente en el mercado. "Una manera habría sido crear una base de datos de fotos de cada objeto, pero sería una tarea masiva --dice Nazarpour--. La belleza de este sistema es que es mucho más flexible y la mano es capaz de recoger objetos nuevos, lo cual es crucial ya que en la vida cotidiana la gente recoge sin esfuerzo una variedad de objetos que nunca han visto antes".
El trabajo es parte de un proyecto de investigación más amplio para desarrollar una mano biónica que pueda detectar la presión y la temperatura y transmitir la información al cerebro. Liderado por la Universidad de Newcastle y con la participación de expertos de las universidades de Leeds, Essex, Keele, Southampton y Imperial College de Londres, en Reino Unido, el objetivo es desarrollar nuevos dispositivos electrónicos que se conecten a las redes neuronales del antebrazo para permitir las comunicaciones bidireccionales con el cerebro.
Como una reminiscencia de la mano artificial del personaje de Luke Skywalker, los electrodos en la extremidad biónica se envolverían alrededor de las terminaciones nerviosas en el brazo, lo que supondría que por primera vez el cerebro podría comunicarse directamente con la prótesis. La 'mano que ve', explica Nazarpour, es una solución provisional que colmará la brecha entre los diseños actuales y el futuro.