MADRID 4 Nov. (EUROPA PRESS) -
El vicepresidente Clinical Research & PSP de la Asociación Española de Evidenze Group, Pedro Hernández, ha advertido que el 85 por ciento de los problemas que se producen en investigación clínica están relacionados con el reclutamiento de pacientes y el abandono de ensayos.
Así lo ha señalado en su intervención durante la 12ª edición de las Jornadas Anuales de la Asociación Española de Compañías de Investigación Clínica (AECIC), que ha reunido a más de 330 profesionales para compartir experiencias y analizar cómo la inteligencia artificial (IA) está redefiniendo los procesos de investigación y desarrollo de las nuevas terapias para tratamiento de pacientes.
La IA ayudaría a solucionar los principales problemas que se encuentran en investigación clínica pues, como ha explicado Hernández, es una herramienta que permite simular escenarios de reclutamiento y duración del estudio, lo que ayuda a anticipar cuellos de botella y refinar el diseño del estudio. También permite analizar grandes volúmenes de estudios previos para identificar redundancias y optimizar criterios de inclusión y exclusión.
Asimismo, ha comentado los beneficios que ofrece para agilizar tareas operativas, desde el diseño de protocolos más eficientes, hasta la generación automática de informes, pasando por el procesamiento inteligente de grandes volúmenes de datos clínicos. Todo ello permite acelerar la llegada de nuevos tratamientos a los pacientes a la vez que se mantiene calidad y seguridad.
Aun así, para Hernández, la IA no reemplaza el juicio humano ni la supervisión científica. En este sentido, ha abordado los desafíos regulatorios y éticos asociados a esta transformación digital, incluyendo las reticencias existentes en el entorno clínico y los marcos legales en evolución.
Según ha recordado, la Ley de IA de Europa y las guías de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA, por sus siglas en inglés) proporcionan regulaciones estructuradas para la IA en aplicaciones médicas.
En cuanto a los riesgos éticos del uso de esta herramienta, ha apuntado a los sesgos algorítmicos, si los datos de entrenamiento no son representativos; la falta de trazabilidad, por decisiones automatizadas difíciles de explicar; la necesidad de validación continua, a través de nuevos datos clínicos que permitan actualizar y reevaluar; y la privacidad y seguridad, con riesgos de filtración de datos sensibles si no se aplican medidas de ciberseguridad robustas.
Al margen de esto, ha enfatizado que los profesionales sanitarios muestran sus preocupaciones con el uso de esta tecnología, pues temen perder sus empleos, deshumanizar su profesión y que se comentan errores no detectados en entornos clínicos. Por ello, ha insistido en que se deben establecer medidas de gobernanza, auditoría y formación continua para garantizar un uso ético y seguro de la IA.
ENSAYOS CLÍNICOS CON IA COMO PRODUCTO SANITARIO
Tras ello, una segunda ponencia protagonizada por la CEO de Iberania, Diana Posa, ha abordado el uso de la IA como producto sanitario en sí mismo y no solo como herramienta. Posa ha introducido el tema matizando que no todos los softwares tienen IA.
Para que la IA se considere como dispositivo médico, ha detallado que tiene que tener un impacto directo sobre decisiones clínicas o manejo de pacientes y requiere validación clínica del funcionamiento y beneficio clínico. En cuanto a los tipos de IA como producto sanitario están la IA para diagnóstico asistido, para prognóstico y predicción, IA en la toma de decisiones, IA en monitoreo o seguimiento, automatizacion de tareas e investigación y descubrimiento.
"La IA como producto sanitario permite analizar grandes volúmenes de datos clínicos, genómicos y de imagen, lo que mejora la precisión en diagnósticos y tratamientos individualizados", ha destacado Posa, quien ha señalado que, desde 2016, la investigación con productos con IA ha crecido exponencialmente, la mayoría por parte de empresas biotecnológicas 'startup'.
Como retos encontrados se ha adentrado en la naturaleza dinámica y supervisión continua; la fiabilidad, generalización y sesgo; el factor humano e interacción clínica; la complejidad de los resultados y métodos. En cuanto a desafíos, ha insistido en que para que sea seguro y confiable, se necesitan regulaciones claras, evidencia clínica robusta y mecanismos que eviten sesgos o discriminación en los algoritmos.
"La IA no es de hace años, sino que está aquí para darnos una gran optimización en cuanto a tiempos y mejora en calidad de los datos y resultados que redundara en mejores tratamiento para los pacientes mucho antes. Eso sí, hay que seguir mejorando. Hay un cambio de regulación en el sector y hay que adaptarse", ha señalado el presidente AECIC, Óscar Salamanca, quien ha finalizado añadiendo que "el futuro es bueno pero hay que tener la mente abierta y ser innovadores".