Expertos en salud digital y gestión sanitaria advierten de los sesgos de la IA en la toma de decisiones

Archivo - Inteligencia artificial, pandemia, virus.
Archivo - Inteligencia artificial, pandemia, virus. - SIRAWIT99/ ISTOCK - Archivo
Publicado: jueves, 8 febrero 2024 12:12

MADRID, 8 Feb. (EUROPA PRESS) -

Expertos en salud digital y gestión sanitaria reunidos en el evento 'Health Data Talent', organizado por el Campus Health Tech de ENIIT en el Recinto Modernista de Sant Pau, en Barcelona, coinciden en advertir del peligro de adoptar herramientas de Inteligencia Artificial (IA) que no han sido evaluadas previamente, ya que pueden dar lugar a errores de diagnóstico y tratamiento.

El pasado mes de diciembre, el Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el que es el primer Reglamento de Inteligencia Artificial (IA) del mundo, y en el que señala que la IA debe evitar "los sesgos que afecten negativamente a las personas", y establece que antes de introducirse un sistema debe evaluarse su impacto.

Ante este contexto, el director de la Fundación TIC Salut Social, la organización encargada de salud digital en la Generalitat de Cataluña, Joan Guanyabens, advierte de que "lo más importante de la IA es la evaluación. Antes de implementarse deben evaluarse sus datos, ya que no es lo mismo una cohorte de una población que de otra".

En este sentido, el fundador de la empresa de evaluación de IA Vincer, Pol Solà, asegura que los sistemas de IA deben probarse con "poblaciones representativas de quienes los vayan a utilizar", en respuesta a un estudio publicado el pasado mes de enero en 'Lancet Digital Health' que concluyó que el "GPT-4 no modelaba adecuadamente la diversidad demográfica de las afecciones médicas" y creaba "diagnósticos que estereotipan ciertas razas, etnias y géneros".

"Hasta ahora eran una caja negra de la que no se sabía cómo llegaba a sus conclusiones, lo que supone un riesgo para los pacientes", añade el experto.

Por su parte, la presidenta de Bioinformatics Barcelona, Ana Ripoll, destaca que "existe un peligro de los algoritmos sesgados ya que inducen a decisiones clínicas y ¿quién asume la responsabilidad si algo falla? Si los datos son de baja calidad los resultados también lo serán".

DESINFORMACIÓN EN SALUD

Desde la Asociación de Innovadores en eSalud (AIES), se ha desarrollado un código ético, con el objetivo de fomentar el uso de buenas prácticas en IA en salud, al que se han unido las tres sociedades científicas de Atención Primaria (SEMERGEN, semFYC y SEMG); la Sociedad Española de Radiología (SERAM) y la Federación de Asociación de Enfermería Comunitaria y Atención Primaria (FAECAP).

Para el vicepresidente de AIES y coordinador del Instituto #SaludsinBulos, Carlos Mateos, tanto los desarrolladores como los usuarios de IA deben "contemplar mecanismos de defensa frente a la desinformación en salud, que ya puede adoptar formas indistinguibles de la información veraz, falsificando imágenes y datos".

Ante estos avances y desafíos de la IA, tanto Joan Guanyabens como Ana Ripoll coinciden en subrayar que faltan profesionales sanitarios formados y para Ripoll, además, se necesita que esos profesionales sanitarios colaboren con otros expertos en el manejo de datos con el objetivo de aprovechar las oportunidades de la IA.