Archivo - Tecnología médica: los médicos utilizan la IA para diagnosticar y mejorar la precisión de los tratamientos. La investigación y el desarrollo médicos innovan en tecnología para mejorar la salud del paciente. - PCESS609/ ISTOCK - Archivo
MADRID, 11 Feb. (EUROPA PRESS) -
La inteligencia artificial médica se describe a menudo como una forma de hacer más segura la atención al paciente al ayudar a los médicos a gestionar la información, pero un nuevo estudio de la Escuela de Medicina Icahn del Monte Sinaí (Estados Unidos) aborda una vulnerabilidad crítica: si es posible que cuando una mentira médica se infiltra en el sistema, la IA pueda transmitirla como si fuera cierta.
Los hallazgos, publicados en 'The Lancet Digital Health' sugieren que las medidas de seguridad actuales no distinguen de manera confiable los hechos de las invenciones una vez que una afirmación está envuelta en un lenguaje clínico o de redes sociales familiar.
Al analizar más de un millón de indicaciones en nueve modelos lingüísticos líderes, los investigadores descubrieron que estos sistemas pueden repetir afirmaciones médicas falsas cuando aparecen en notas hospitalarias realistas o en debates sobre salud en las redes sociales.
CUANDO LA IA REPITE UNA MENTIRA COMO SI FUERA UN PROTOCOLO
Para probar esto sistemáticamente, el equipo expuso los modelos a tres tipos de contenido: resúmenes reales de altas hospitalarias de la base de datos MIMIC (Mercado de Información Médica para Cuidados Intensivos), con una única recomendación inventada añadida; mitos comunes sobre salud recopilados de Reddit; y 300 escenarios clínicos breves escritos y validados por médicos. Cada caso se presentó en múltiples versiones, desde un lenguaje neutro hasta uno con carga emocional o conciso, similar al que circula en redes sociales.
En un ejemplo, una nota de alta recomendaba erróneamente a los pacientes con sangrado relacionado con esofagitis que "bebieran leche fría para aliviar los síntomas". Varios modelos aceptaron la afirmación en lugar de señalarla como insegura. La trataron como una simple recomendación médica.
"Nuestros hallazgos demuestran que los sistemas actuales de IA pueden tratar el lenguaje médico seguro como cierto por defecto, incluso cuando es claramente erróneo", detalla el doctor Eyal Klang, coautor principal y coautor de correspondencia , jefe de IA Generativa en el Departamento Windreich de Inteligencia Artificial y Salud Humana de la Escuela de Medicina Icahn del Hospital Monte Sinaí.
"Una recomendación inventada en una nota de alta puede pasar desapercibida. Puede repetirse como si se tratara de la atención estándar. Para estos modelos, lo que importa no es si una afirmación es correcta sino cómo está escrita".
CÓMO PONER A PRUEBA (DE VERDAD) A LA IA MÉDICA
Los autores dicen que el siguiente paso es tratar la cuestión de si este sistema transmitir una mentira como una propiedad medible, utilizando pruebas de estrés a gran escala y verificaciones de evidencia externa antes de que la IA se incorpore a las herramientas clínicas.
"Los hospitales y desarrolladores pueden usar nuestro conjunto de datos como una prueba de estrés para la IA médica", apunta el doctor Mahmud Omar, médico-científico y primer autor, quien asesora al equipo de investigación. "En lugar de asumir que un modelo es seguro, se puede medir la frecuencia con la que transmite una mentira y si esa cifra disminuye en la siguiente generación".
"La IA tiene el potencial de ser una verdadera ayuda para médicos y pacientes, ofreciendo información y apoyo más rápidos", comenta el coautor principal y corresponsal Girish N. Nadkarni, presidente del Departamento de Inteligencia Artificial y Salud Humana de Windreich en la Escuela de Medicina Icahn en Mount Sinai, y director de IA del Sistema de Salud Mount Sinai.
"Pero necesita salvaguardas integradas que verifiquen las afirmaciones médicas antes de que se presenten como hechos. Nuestro estudio muestra dónde estos sistemas aún pueden transmitir información falsa y señala maneras en que podemos fortalecerlos antes de que se integren en la atención médica", concluye.