Nueva herramienta de IA aborda la precisión y la equidad de los datos para mejorar los algoritmos de salud

Archivo - Los trabajadores médicos tocan la revolución médica virtual y el avance de la tecnología Inteligencia Artificials
Archivo - Los trabajadores médicos tocan la revolución médica virtual y el avance de la tecnología Inteligencia Artificials - TOOWONGSA ANURAK/ ISTOCK - Archivo
Infosalus
Publicado: viernes, 5 septiembre 2025 7:26

MADRID 5 Sep. (EUROPA PRESS) -

Un equipo de investigadores de la Escuela de Medicina Icahn del Monte Sinaí (Estados Unidos) ha desarrollado un nuevo método para identificar y reducir sesgos en los conjuntos de datos utilizados para entrenar algoritmos de aprendizaje automático; esto aborda un problema crítico que puede afectar la precisión diagnóstica y las decisiones de tratamiento.

Los hallazgos se publican en 'Journal of Medical Internet Research'. Para abordar el problema, los investigadores desarrollaron AEquity, una herramienta que ayuda a detectar y corregir sesgos en los conjuntos de datos de atención médica antes de utilizarlos para entrenar modelos de inteligencia artificial (IA) y aprendizaje automático.

Los investigadores probaron AEquity con diferentes tipos de datos de salud, incluyendo imágenes médicas, historiales clínicos y una importante encuesta de salud pública, la Encuesta Nacional de Examen de Salud y Nutrición, utilizando diversos modelos de aprendizaje automático. La herramienta logró detectar sesgos tanto conocidos como previamente ignorados en estos conjuntos de datos.

Las herramientas de IA se utilizan cada vez más en la atención médica para respaldar la toma de decisiones, desde el diagnóstico hasta la predicción de costos. Sin embargo, la precisión de estas herramientas depende de los datos utilizados para su entrenamiento. Algunos grupos demográficos podrían no estar representados proporcionalmente en un conjunto de datos. Además, muchas afecciones podrían presentarse de forma diferente o estar sobrediagnosticadas en diferentes grupos, según los investigadores. Los sistemas de aprendizaje automático entrenados con estos datos pueden perpetuar y amplificar las imprecisiones, creando un ciclo de retroalimentación de atención deficiente, como diagnósticos erróneos y resultados no deseados.

"Nuestro objetivo era crear una herramienta práctica que ayudara a los desarrolladores y a los sistemas de salud a identificar si existe sesgo en sus datos y a tomar medidas para mitigarlo", comenta el doctor Faris Gulamali, primer autor. "Queremos garantizar que estas herramientas funcionen correctamente para todos, no solo para los grupos más representados en los datos".

El equipo de investigación informó que AEquity se adapta a una amplia gama de modelos de aprendizaje automático, desde enfoques más sencillos hasta sistemas avanzados como los que impulsan grandes modelos lingüísticos. Se puede aplicar tanto a conjuntos de datos pequeños como complejos y puede evaluar no solo los datos de entrada, como resultados de laboratorio o imágenes médicas, sino también los resultados, incluyendo diagnósticos previstos y puntuaciones de riesgo.

Los resultados del estudio sugieren además que AEquity podría ser valioso tanto para desarrolladores como para investigadores y organismos reguladores. Podría utilizarse durante el desarrollo de algoritmos, en auditorías previas a su implementación o como parte de iniciativas más amplias para mejorar la equidad en la IA en el ámbito sanitario.

"Herramientas como AEquity son un paso importante hacia la creación de sistemas de IA más equitativos, pero son solo una parte de la solución", agrega el autor principal correspondiente* Girish N. Nadkarni, presidente del*Departamento de Inteligencia Artificial y Salud Humana de Windreich y profesor de Medicina en la Facultad de Medicina Icahn del Monte Sinaí. "Si queremos que estas tecnologías realmente sirvan a todos los pacientes, necesitamos combinar los avances técnicos con cambios más amplios en cómo se recopilan, interpretan y aplican los datos en la atención médica. La base importa y comienza con los datos".

"Esta investigación refleja una evolución crucial en nuestra concepción de la IA en la atención médica: no solo como una herramienta para la toma de decisiones, sino como un motor que mejora la salud en las numerosas comunidades a las que servimos", añade el doctor David L. Reich, director Clínico del Sistema de Salud Mount Sinai y presidente del Hospital Mount Sinai. "Al identificar y corregir el sesgo inherente a nivel de conjunto de datos, abordamos la raíz del problema antes de que afecte la atención al paciente. Así, generamos una mayor confianza comunitaria en la IA y garantizamos que las innovaciones resultantes mejoren los resultados para todos los pacientes, no solo para aquellos mejor representados en los datos. Es un paso fundamental para convertirnos en un sistema de salud en constante aprendizaje que se perfecciona y se adapta continuamente para mejorar la salud de todos", concluye.

DOI: 10.2196/71757

Últimas noticias sobre estos temas

Contenido patrocinado