Descubren sesgos importantes en modelos de IA que analizan muestras de Anatomía Patológica

Archivo - La Fundación Merck Salud lanza la monografía 'Inteligencia Artificial en el campo de la Salud'
Archivo - La Fundación Merck Salud lanza la monografía 'Inteligencia Artificial en el campo de la Salud' - FUNDACIÓN MERCK SALUD - Archivo
Infosalus
Publicado: miércoles, 17 diciembre 2025 7:24

   MADRID, 17 Dic. (EUROPA PRESS) -

La Anatomía Patológica, ha sido durante mucho tiempo la piedra angular del diagnóstico y el tratamiento del cáncer. Un patólogo examina cuidadosamente un corte ultrafino de tejido humano al microscopio en busca de indicios que indiquen la presencia, el tipo y el estadio del cáncer.

Para un experto humano, observar una muestra de tejido rosado y ondulado, salpicada de células púrpuras, es como calificar un examen sin nombre: la diapositiva revela información esencial sobre la enfermedad sin brindar otros detalles sobre el paciente. Sin embargo, esto no es necesariamente cierto con los modelos de inteligencia artificial para patología que han surgido en los últimos años.

    Un nuevo estudio dirigido por un equipo de la Facultad de Medicina de Harvard (Estados Unidos) muestra que algunos modelos de IA pueden, de alguna manera, inferir información demográfica a partir de portaobjetos de Anatomía Patológica, lo que genera sesgos en el diagnóstico de cáncer en diferentes poblaciones. El trabajo se describe en 'Cell Reports Medicine'.

CUANDO LA IA NO VE A TODOS POR IGUAL

   En este nuevo trabajo, al analizar varios modelos de IA de Anatomía Patológica, importantes diseñados para diagnosticar el cáncer, los investigadores encontraron un rendimiento desigual en la detección y diferenciación de cánceres entre poblaciones según el género, la raza y la edad declarados por los propios pacientes. Identificaron varias posibles explicaciones para este sesgo demográfico. Posteriormente, el equipo desarrolló un marco llamado FAIR-Path que ayudó a reducir el sesgo en los modelos.

   "Leer datos demográficos de una diapositiva de Anatomía Patológica, se considera una 'misión imposible' para un patólogo humano, por lo que el sesgo en la IA de patología fue una sorpresa para nosotros", plantea el autor principal Kun-Hsing Yu, profesor asociado de informática biomédica en el Instituto Blavatnik en Harvard Medical School's (HMS).

POR QUÉ EL SESGO PUEDE AFECTAR LOS DIAGNÓSTICOS DE CÁNCER

   Identificar y contrarrestar el sesgo de la IA en medicina es crucial, ya que puede afectar la precisión diagnóstica, así como los resultados de los pacientes, insiste Yu. El éxito de FAIR-Path indica que los investigadores pueden mejorar la imparcialidad de los modelos de IA para la patología del cáncer, y quizás otros modelos de IA en medicina, con un mínimo esfuerzo.

   Yu y su equipo investigaron el sesgo en cuatro modelos estándar de patología de IA que se estaban desarrollando para la evaluación del cáncer. Estos modelos de aprendizaje profundo se entrenaron con conjuntos de diapositivas de patología anotadas, de las cuales "aprendieron" patrones biológicos que les permiten analizar nuevas diapositivas y ofrecer diagnósticos Los investigadores alimentaron los modelos de IA con un gran repositorio multiinstitucional de diapositivas de Anatomía Patológica, que abarcan 20 tipos de cáncer.

   Descubrieron que los cuatro modelos presentaban un rendimiento sesgado, lo que proporcionaba diagnósticos menos precisos para pacientes de grupos específicos según la raza, el sexo y la edad declarados por los propios pacientes. Por ejemplo, los modelos tenían dificultades para diferenciar los subtipos de cáncer de pulmón en pacientes afroamericanos y varones, y los subtipos de cáncer de mama en pacientes más jóvenes.

FAIR-PATH: LA SOLUCIÓN PARA UNA IA MÁS JUSTA

Los modelos también tuvieron dificultades para detectar el cáncer de mama, renal, de tiroides y de estómago en ciertos grupos demográficos. Estas disparidades de rendimiento se presentaron en aproximadamente el 29% de las tareas de diagnóstico que realizaron los modelos.

   Esta inexactitud diagnóstica, matiza Yu, ocurre porque estos modelos extraen información demográfica de las diapositivas y se basan en patrones demográficos específicos para hacer un diagnóstico.

   Los investigadores llegaron a tres explicaciones. Debido a que es más fácil obtener muestras de pacientes en ciertos grupos demográficos, los modelos de IA se entrenan con tamaños de muestra desiguales. Como resultado, los modelos tienen más dificultades para realizar un diagnóstico preciso en muestras que no están bien representadas en el conjunto de entrenamiento, como las de grupos minoritarios basados ??en la raza, la edad o el género

   Sin embargo, "el problema resultó ser mucho más profundo", plantea Yu. Los investigadores observaron que, a veces, los modelos presentaban un peor rendimiento en un grupo demográfico, incluso con tamaños de muestra comparables.

   Análisis adicionales revelaron que esto podría deberse a una incidencia diferencial de enfermedades: algunos cánceres son más comunes en ciertos grupos, por lo que los modelos mejoran su diagnóstico en esos grupos. Como resultado, los modelos podrían tener dificultades para diagnosticar cánceres en poblaciones donde no son tan comunes.

   Los modelos de IA también detectan sutiles diferencias moleculares en muestras de diferentes grupos demográficos. Por ejemplo, los modelos podrían detectar mutaciones en genes desencadenantes del cáncer y utilizarlas como indicador del tipo de cáncer, lo que resultaría menos eficaz para realizar un diagnóstico en poblaciones donde estas mutaciones son menos comunes. "Descubrimos que, debido a que la IA es tan poderosa, puede diferenciar muchas señales biológicas oscuras que no pueden detectarse mediante la evaluación humana estándar", comenta Yu.

   Como resultado, los modelos podrían aprender señales más relacionadas con la demografía que con la enfermedad. Esto, a su vez, podría afectar su capacidad diagnóstica en distintos grupos. En conjunto, expone Yu, estas explicaciones sugieren que el sesgo en la IA de patología surge no solo de la calidad variable de los datos de entrenamiento, sino también de cómo los investigadores entrenan los modelos.

   Con la intención de buscar una posible solución, los investigadores desarrollaron FAIR-Path, un marco de trabajo sencillo basado en un concepto existente de aprendizaje automático llamado aprendizaje contrastivo. Este aprendizaje consiste en añadir un elemento al entrenamiento de IA que enseña al modelo a destacar las diferencias entre categorías esenciales (en este caso, los tipos de cáncer) y a minimizar las diferencias entre categorías menos cruciales (en este caso, los grupos demográficos).

   Cuando los investigadores aplicaron el marco FAIR-Path a los modelos que habían probado, redujeron las disparidades diagnósticas en alrededor del 88 por ciento. "Demostramos que, al realizar este pequeño ajuste, los modelos pueden aprender características sólidas que los hacen más generalizables y más justos en diferentes poblaciones", cuenta Yu.

   Actualmente, los investigadores colaboran con instituciones de todo el mundo para investigar el alcance del sesgo en la IA para patología en lugares con diferentes demografías y prácticas clínicas y patológicas. También exploran maneras de extender FAIR-Path a entornos con tamaños de muestra limitados. Además, desean investigar cómo el sesgo en la IA contribuye a las discrepancias demográficas en la atención médica y los resultados de los pacientes.

Contador

Últimas noticias sobre estos temas

Contenido patrocinado