Sociedades científicas, asociaciones de pacientes y gestores piden un compromiso ético sobre la IA en Salud

Archivo - La Fundación Merck Salud lanza la monografía 'Inteligencia Artificial en el campo de la Salud'
Archivo - La Fundación Merck Salud lanza la monografía 'Inteligencia Artificial en el campo de la Salud' - FUNDACIÓN MERCK SALUD - Archivo
Publicado: martes, 19 septiembre 2023 13:46

MADRID, 19 Sep. (EUROPA PRESS) -

Sociedades científicas, asociaciones de pacientes y organizaciones del ámbito hospitalario, han pedido un compromiso ético a las empresas que desarrollan Inteligencia Artificial (IA) en Salud para evitar riesgos de confidencialidad de los datos de los pacientes y desinformación.

Con este fin, han propuesto un decálogo de medidas para reducir estos riesgos, según han explicado en el encuentro 'Hackeando la Sanidad: Inteligencia Artificial en Salud', organizado por la Asociación de Innovadores en eSalud (AIES), la red ITEMAS (dependiente del Instituto de Salud Carlos III) y el Instituto #SaludsinBulos.

La IA en salud reducirá la carga de trabajo de los profesionales sanitarios, con una disminución esperada del 20 por ciento en el caso de médicos y un ocho por ciento en el caso de enfermeras, según Estatista, lo que redundaría en más tiempo dedicado a los pacientes.

"Diversos estudios han demostrado que muchos de los diagnósticos que realiza la IA son más precisos que los que puede realizar cualquier equipo médico. También está ayudando a asignar mejor los recursos de la asistencia sanitaria y a realizar tratamientos más personalizados", explica la responsable de estrategia digital en la Junta de Andalucía y presidenta de AIES, la doctora Carmen Jódar.

Sin embargo, la IA "también supone un riesgo de desinformación en salud, como están mostrando los deep fakes, vídeos con imágenes creadas por Inteligencia Artificial, incluso de personas reales cuya imagen y voz son manipuladas. Cada vez va a ser más difícil distinguir entre lo que es un contenido real de otro falso", señala el coordinador del Instituto #SaludsinBulos y del Hackathon Salud, Carlos Mateos.

Entre las soluciones de IA que ya se están aplicando en diagnóstico figuran el sistema de triaje implantado en el Hospital Universitario Parc Taulí, cuya unidad de innovación dirige el doctor Blanch. Se trata de un evaluador de síntomas en urgencias basado en IA, que reduce los tiempos de espera y aumenta la seguridad de la asistencia sanitaria.

Otros campos en los que ya hay experiencias basadas en IA en centros españoles son el diagnóstico de imágenes radiológicas, de enfermedades de la piel y de variantes genómicas, entre otras.

En medicina personalizada, la IA se está utilizando en centros españoles, entre otros, para rehabilitación, con visión artificial, y para el desarrollo de biomarcadores dirigidos a dianas terapéuticas para conseguir mayor precisión del tratamiento. En prevención, se está utilizando la IA para hallar posibles riesgos de sufrir cáncer a través de biomarcadores, y para detección precoz de patologías con el análisis de la voz.

Desde AIES y el Instituto #SaludsinBulos se ha impulsado un compromiso ético sobre la IA en salud al que ya se han sumado sociedades científicas de Atención Primaria como semFYC y SEMERGEN, y de enfermería como FEACAP, aunque se espera que se sumen el resto de las 70 organizaciones que mantienen acuerdos de colaboración con AIES y #SaludsinBulos.

Entre los puntos de este compromiso ético destaca la autonomía, para que los sistemas de inteligencia artificial preserven la autonomía de las personas. En salud deben incorporar mecanismos para que los profesionales puedan supervisar e intervenir para evitar ser dirigidos injustificadamente, y que puedan revisar y corregir cualquier resultado de dichos sistemas. Los profesionales, los pacientes y los ciudadanos son los responsables de las decisiones sanitarias.

El uso de la inteligencia artificial también debe promover el bienestar de las personas, y su finalidad debe estar orientada al interés público mediante el desarrollo de sistemas seguros, precisos, eficaces y de calidad.

Para que un sistema de IA inspire confianza en los profesionales sanitarios y ciudadanos debe ser legal; asegurando el cumplimiento de las normativas en vigor, justo; evitando sesgos y creencias injustificadas; y robusto técnicamente.

Asimismo, el uso y acceso a los sistemas de inteligencia artificial debe ser equitativo en la medida de lo posible, extendiéndose a todas las personas y regiones sin discriminación por cualquier tipo de condición. Los sistemas de salud deben anticipar la repercusión que tendrá en los profesionales y pacientes utilizar la IA, habituándoles en su uso.

También debe ayudar a la alfabetización en salud y a la identificación y difusión de la información veraz en salud. Para ello deben ayudar a identificar las fuentes de la información y las referencias, tanto de texto como de imagen, y contrarrestar la desinformación con información veraz.

Los sistemas de IA y sus entornos tecnológicos deben poseer mecanismos robustos que garanticen la privacidad y seguridad de los datos, de forma que sean tratados responsablemente en la asistencia sanitaria y en la investigación científica. Las soluciones de IA deben ser entrenadas y utilizar datos fiables y representativos de su universo.

Por último, los sistemas de IA en salud deben estar basados en la responsabilidad, la sostenibilidad y la transparencia.