MADRID 10 Sep. (EUROPA PRESS) -
La comisionada de Salud Mental, Belén González, ha anunciado este miércoles que su departamento, perteneciente al Ministerio de Sanidad, está en contacto con las compañías Meta y OpenAI para garantizar un uso seguro de la inteligencia artificial generativa en salud mental y evitar que los 'chatbots' emitan mensajes que puedan contribuir al "sufrimiento" o a un "desenlace problemático" en personas con trastornos psíquicos o ideas suicidas.
"Estamos en contacto para poder mejorar estas herramientas, que son inevitables y con las que tenemos que relacionarnos, pero desde un lugar que no es para el sufrimiento psíquico", ha señalado González durante la clausura de la jornada 'Prevención Integral del Suicidio: territorio y comunidad', que se ha celebrado este miércoles en el Ministerio de Sanidad en el marco del Día Internacional de la Prevención del Suicidio.
De este modo, González ha explicado que el Ministerio está trabajando con estas compañías para abordar las cuestiones en relación al uso de los 'chatbots' como acompañantes terapéuticos y los riesgos asociados a la información que puedan proporcionar a personas con sufrimiento psíquico. Así como que la IA pueda desarrollar mecanismos de control y de seguridad.
No obstante, la comisionada ha querido dejar claro que este tipo de herramientas "no van a sustituir a ningún terapeuta", al tiempo que ha lamentado que actualmente muchas personas acuden a la IA cuando tienen ideas suicidas.
"Ahora resulta que cuando tengo ganas de morirme, en lugar de decírselo a mi compañero, a mi hermano, a mi madre, a mi tío, a mi vecino, a mi amiga, se lo digo a un 'chatbot', se lo digo a 'ChatGPT'. Esto no puede seguir pasando, porque es un síntoma de la sociedad en la que vivimos. Y tiene que ver con esta herramienta de la inteligencia artificial generativa y con la falsa sensación de que es una persona la que tenemos al otro lado", ha explicado.
Para González, se debe mejorar la escucha hacía las personas que tienen ideas suicidas, incluso por parte de los profesionales sanitarios. "Cuando alguien te viene y te dice que tiene ganas de suicidarse, automáticamente, casi como una forma defensiva o de protección, decimos que se vaya al hospital o a urgencias", ha señalado.
"Cuesta muchísimo escuchar estas ideas. Y cuesta escucharlas porque nos conmueven, porque nos movilizan algo que es profundamente humano", ha añadido. Por ello, ha abogado por "una escucha responsable" sobre cuestiones del suicidio.
En este punto, ha puesto como ejemplo el teléfono 024, al que ha considerado una "herramienta imprescindible" que actualmente está "recibiendo unas 600 llamadas al día". "Aporta esa escucha, esa primera escucha, esa relación directa que no juzga y que está para todos y para todas de forma anónima para quien lo necesite", ha finalizado.