Archivo - Imagen de recurso de un doctor sujetando una 'tablet'. - ASHO - Archivo
MADRID 4 Dic. (EUROPA PRESS) -
Los modelos de inteligencia artificial (IA) ofrecen información más limitada y menos rigurosa a los pacientes que a los profesionales sanitarios, según el informe 'IA y Política Pública: Hacia una nueva arquitectura de incidencia', elaborado por LLYC en el marco del European Health Summit.
Además, la calidad y el enfoque de la información que ofrece la inteligencia artificial (IA) en materia de salud varía drásticamente según el perfil del usuario, la regulación vigente y el país donde se formula la consulta, generando una clara desigualdad en las respuestas de los grandes modelos de lenguaje sobre normativa sanitaria europea.
Así lo indica este informe en el que se han analizado 1.484 respuestas de cuatro sistemas de IA ('OpenAI', 'Anthropic', 'Perplexity' y 'Gemini') sobre cuatro normas comunitarias clave.
Asimismo, si las preguntas se hacen desde países como España, Alemania o Francia el resultado es más completo y con mayor calidad de fuentes en comparación con otros países europeos como Polonia, Hungría, Lituania, que presentan información menos robusta.
"La IA se ha convertido en un actor con capacidad para influir en la opinión pública, en la circulación de información y en la percepción de temas clave como la salud y la regulación. Las divergencias sistemáticas detectadas, especialmente la desigualdad informativa entre profesionales sanitarios y pacientes, y la brecha geográfica plantean un desafío crítico de equidad. Debe ser vigilada por reguladores y actores industriales ya que puede moldear las percepciones públicas de forma sesgada, creando ventajas informativas para ciertos usuarios", asegura Carlos Parry, Líder de Healthcare Europa en LLYC.
En cuanto al rendimiento de los cuatro grandes modelos de lenguaje (LLMs), 'Gemini' es el mejor posicionado, mientras que 'OpenAI' es el último.
"Nuestro análisis demuestra empíricamente que los modelos de lenguaje no son meros repositorios de datos, sino intermediarios activos que interpretan y sesgan la información según quién pregunte. Hemos pasado de una web de búsqueda a una de respuestas sintéticas, y para cualquier organización, entender la lógica algorítmica de esta nueva 'arquitectura de la influencia' es tan crítico hoy como lo fue entender a los medios de comunicación en el pasado", ha indicado el director general de Deep Learning en LLYC, Daniel Fernández.
En definitiva el informe concluye que la interacción entre la Inteligencia Artificial (IA) y la política pública en salud confirma la existencia de sesgos sistemáticos en los grandes modelos de lenguaje (LLMs).