MADRID 18 Jun. (EUROPA PRESS) -
El coordinador del Grupo de Bioética y Profesionalismo de la Sociedad Española de Medicina Interna (SEMI), el doctor Antonio Blanco, ha resaltado que "el problema principal que desvela la inteligencia artificial en sus modalidades de aprendizaje automático, deep learning y su requerida minería de datos, es la privacidad", así como la relación médico-paciente y la responsabilidad en la toma de decisiones asistida por IA.
"De hecho, cuantos más datos se tengan, más seguros serán los sistemas de inteligencia artificial, con menos sesgos, pero mayor riesgo habrá de vulnerar la confidencialidad", ha apuntado durante la IX Reunión de Bioética y Profesionalismo de la Sociedad Española de Medicina Interna (SEMI). También ha indicado que "otros problemas éticos que plantea es la responsabilidad en la toma de decisiones asistida por inteligencia artificial, la necesidad de supervisión humana, la necesidad de sistemas de inteligencia artificial explicables para reportar confiabilidad".
La telemedicina también juega un papel relevante en la privacidad. Con la telemedicina existe una pantalla que mediante tecnología avanzada consigue poner en contacto. "Lo que pasa en lo que no vemos de esa pantalla puede ser un resquicio para vulnerar la privacidad. Además, el marco de la pantalla hace que no podamos controlar el entorno o si hay alguien más en la sala y eso lleva a desconfiar en una relación que se debe basar en la confianza", ha señalado el doctor Blanco.
Así, la inteligencia artificial "va a asistir al médico en la toma de decisiones". Actualmente tiene capacidad de leer electrocardiogramas, pruebas de imagen o tejidos o lesiones en la piel y emitir una sospecha diagnóstica, señalar imágenes sospechosas, hacer seguimiento, predicciones de recurrencia e incluso de mortalidad. Tiene capacidad de "leer una historia clínica y en base a los síntomas y signos descritos y resultados complementarios emitir una sospecha diagnóstica".
Pero, es más, la IA tiene capacidad de, en función de una estirpe celular y la farmacogenómica del paciente, elegir "qué fármaco es el más adecuado para tratar un cáncer". Los beneficios son evidentes: "más precisión y en menos tiempo. Los riesgos son que hasta que llegue hay que hacer mucha investigación y estar muy seguros de que funciona, que no existen sesgos en la selección de pacientes, que requieren de una supervisión humana que entienda cómo funciona y que los médicos no sabemos de ingeniería informática", ha resumido el doctor Blanco.
Uno de los principales riesgos, según ha expuesto, es "el de dejarse de implicar intelectualmente en la relación clínica y asumir que la IA, por comodidad o porque se tenga la sensación de que acierta, conllevará un alienación y un desgaste profesional".
"Si aspiramos a la aplicabilidad ética de sistemas de inteligencia artificial en nuestro ámbito de trabajo, porque creemos que nos pueden aportar mayor precisión, calidad y seguridad en nuestra toma de decisiones, sin duda tendremos que conocer cómo funcionan estos sistemas, cuáles son sus riesgos y a qué elementos decisionales tenemos que prestar atención en los que puede que esa IA no haga o pueda hacerlo con mayores posibilidades de sesgo", ha señalado el coordinador del grupo de trabajo.