Publicado 26/03/2020 7:19:44 +01:00CET

Expertos alertan del riesgo de afirmaciones "exageradas" sobre la superioridad de la IA sobre los médicos

Inteligencia Artificial.
Inteligencia Artificial. - PIXABAY - Archivo

   MADRID, 26 Mar. (EUROPA PRESS) -

   Muchos estudios que afirman que la inteligencia artificial es tan buena, o incluso mejor, que los expertos humanos para interpretar imágenes médicas son de baja calidad y posiblemente exageradas, lo que representa un riesgo para la seguridad de millones de pacientes, advierten los investigadores en la revista 'The BMJ'.

   Sus hallazgos plantean preocupaciones sobre la calidad de la evidencia que sustenta muchos de estos estudios, y destacan la necesidad de mejorar sus estándares de diseño e informes.

   La inteligencia artificial (IA) es un campo innovador y de rápido crecimiento con el potencial de mejorar la atención al paciente y aliviar los servicios de salud sobrecargados. El aprendizaje profundo es una rama de la IA que ha demostrado ser particularmente prometedora en imágenes médicas.

   El volumen de investigaciones publicadas sobre aprendizaje profundo está creciendo, y algunos titulares de los medios que afirman que tien un rendimiento superior al de los médicos han impulsado la publicidad para una implementación rápida de esta tecnología en la asistencia. Pero los métodos y el riesgo de sesgo de los estudios detrás de estos titulares no se han examinado en detalle.

   Para abordar esto, un equipo de investigadores revisó los resultados de los estudios publicados en los últimos 10 años, comparando el desempeño de un algoritmo de aprendizaje profundo en imágenes médicas con médicos expertos.

   Encontraron solo dos ensayos clínicos aleatorios elegibles y 81 estudios no aleatorios. De los no aleatorios, solo nueve fueron prospectivos (seguimiento y recopilación de información sobre individuos a lo largo del tiempo) y solo seis fueron probados en un entorno clínico del mundo real.

   El número promedio de expertos humanos del grupo de comparación fue de solo cuatro, mientras que el acceso a datos y código sin procesar (para permitir un escrutinio independiente de los resultados) fue muy limitado.

   Se consideró que más de dos tercios (58 de 81) estudios tenían un alto riesgo de sesgo por problemas en el diseño del estudio que pueden influir en los resultados, y la adherencia a los estándares de informes reconocidos a menudo era deficiente.

   Tres cuartas partes (61 estudios) declararon que el rendimiento de la IA era al menos comparable (o mejor) que el de los médicos, y solo 31 (38%) declararon que se necesitaban más estudios o ensayos prospectivos.

   Los investigadores señalan algunas limitaciones, como la posibilidad de estudios perdidos y el enfoque en estudios de imágenes médicas de aprendizaje profundo, por lo que los resultados pueden no aplicarse a otros tipos de IA.

   Sin embargo, dicen que en la actualidad, "existen muchas afirmaciones posiblemente exageradas sobre la equivalencia con (o superioridad sobre) los médicos, lo que representa un riesgo potencial para la seguridad del paciente y la salud de la población a nivel social".

   Advierten de que el lenguaje excesivamente prometedor "deja a los estudios susceptibles de ser mal interpretados por los medios y el público, y como resultado la posible provisión de atención inadecuada que no necesariamente se alinea con los mejores intereses de los pacientes".

   "Maximizar la seguridad del paciente será mejor al garantizar que desarrollemos una base de evidencia de alta calidad y reportada de forma transparente en el futuro", concluyen.

Contador