Tecnología y salud mental

La inteligencia artificial irrumpe en la terapia psicológica y abre un debate ético

Afloran Start-ups españolas tecnológicas con la intención de complementar o sustituir la tarea de los terapeutas

El campo de aplicación sigue creciendo mientras también se advierte sobre los riesgos de deshumanización

La Unión Europea determina la primera ley para regularizar la inteligencia artificial

La Unión Europea determina la primera ley para regularizar la inteligencia artificial / MIGUEL ÁNGEL MOLINA | EFE | VÍDEO: ATLAS NEWS

Fidel Masreal

Fidel Masreal

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

"Conversa con IAs [inteligencias artificiales] de Freud o Maslow ¡y deja de agobiar a tus amigos con tus problemas!". Así se promociona públicamente una aplicación digital que ofrece la IA como herramienta para "dialogar" con Freud o Maslow. Se trata, insisten, de "un complemento en tu camino hacia un mejor bienestar emocional". La IA ha llegado también a la salud mental. Con empresas españolas que ofrecen asistentes virtuales, llamados "metahumanos" de apariencia real que "que comprende, escucha y guía". Es decir, dan consejos y realizan tests con, aseguran, validez oficial. ¿Es útil esta herramienta para tratar a personas que no tienen acceso a la sanidad por falta de dinero o por saturación del sistema? ¿O más bien se trata de una deshumanización?

Nos cuesta ver que la precisión y fiabilidad del algoritmo es mayor, pero lo es

Raúl Alelu

— CEO de Thera4all

Una de estas start-ups es Thera4all, dirigida por el psicólogo sanitario Raúl Alelu y experto en "terapias innovadoras", según su perfil en la web. Realiza evaluaciones (no diagnósticos ni tratamientos, por ahora) mediante inteligencia artificial, sobre toda una variedad de temas: demencia, ansiedad, depresión, riesgo de suicidio, autismo, TDAH y somnolencia. Alelu defiende que el algoritmo es más fiable que un humano a la hora de hacer un cribaje, tanto de en cáncer de mama como en salud mental. "Nos cuesta ver que su precisión y fiabilidad es mayor, pero es que lo es", sostiene.

¿No sería mejor un tratamiento humano?

"Yo iría a un terapeuta, sinceramente -admite Alelu-, pero muchas personas en zonas rurales sin psicólogos o que no pueden pagarse uno de privado, necesitan una solución". En efecto, la defensa de este tipo de herramientas virtuales se basa en su aplicación generalizada y barata. La empresa lo llama "democratización" de la salud. Aprovechando la realidad de un sistema de salud mental público saturado y una red privada que no todos se pueden permitir, Thera4all defiende que su "metahumano" es tan útil o más que un psicólogo real que realiza una primera visita. Es más, Alelu enarbola un discurso muy vehemente que sostiene que la salud mental "no está bien tratada, científicamente", que los fármacos generan muchos efectos secundarios...

¿Y la comunicación cara a cara?

Alelu reconoce también que la IA, que en su caso trabaja mediante conversación de audio, no capta toda la comunicación no verbal que se genera en un diálogo entre paciente y profesional. "En parte, no verse es un handicap, pero cuando pasas un test muy pocas veces has de tener en cuenta la información no verbal, no te puedes salir de las preguntas, pero estamos trabajando para incorporar esta información no verbal, aunque muchas veces esta información no es relevante", sostiene el CEO de la empresa.

¿Quién se hace responsable?

Alelu asegura que existe una responsabilidad legal última, la de la empresa, si la IA realiza consejos o respuestas inadecuadas o que generen problemas añadidos. De hecho, ahora la compañía va a requerir un sello europeo para desarrollar su siguiente paso: un psicólogo que sí lleve a cabo diagnóstico y tratamiento, mediante cámara web.

Información pasiva y activa: Iris

Prevención, colaboración, herramientas adicionales. Así se presenta Eb2, una empresa española que nació de la universidad (es una spin off de un proyecto de la Carlos III de Madrid).su herramienta. Una app que recoge información del usuario que sirve para detectar cambios de comportamiento y ayudar, sostienen, a prevenir incluso suicidios. Al frente, Ana Hernando, economista, y Antonio Artés, catedrático de telecomunicaciones. "Es muy fácil saber si una persona va cometer un intento de suicido a lo largo de su vida, juntas datos genéticos, sociodemográficos e historia clínica y lo sabes con bastante probabilidad", sostiene Artés.

Juntas datos genéticos, sociodemográficos e historia clínica y es muy fácil saber si una persona va cometer un intento de suicidio a lo largo de su vida

Antonio Artés

— Eb2

También disponen de una herramienta activa, llamada iris, que sostienen que no hace tratamientos sino que sólo ayuda a detectar malestares.

¿Mejor un algoritmo que un amigo?

El principal argumento de esta empresa, y en eso sí coincide con Thera4all, es que pueden ayudar a miles de personas al mismo tiempo (permite "escalar", detalla Artés), en empresas o universidades. ¿Pero a esas personas no puede ayudarlas un amigo, un familiar o un terapeuta? La respuesta de los responsables de Eb2 es que mucha gente no quiere explicar su vivencia, por el estigma asociado a la salud mental. "Los amigos -sostiene Hernando- son los que por intuición detectan cambios en tu comportamiento, pero es pura intuición; pero hablando con alguien que tenía al lado a una persona que había hecho intentos de suicido, me decía: 'me encantaría tener una herramienta más objetiva como la vuestra' porque nosotros damos una medida más objetiva a esa intuición".

Eb2 no es una empresa aislada de los hospitales y los terapeutas. Al contrario. Sí, colabora con entidades privadas como ITA, en Catalunya, pero está formando parte de un macroproyecto, llamado Smart crisis, en el que están implicados entre otros el Hospital del Mar y varias universidades, para incidir más y mejor en las herramientas digitales para ayudar a tratar la salud mental.

¿Con más psicólogos no haría falta una app?

Antonio Artés responde: "No lo tengo claro, cada parte aporta una información complementaria; muchas veces el paciente no te cuenta qué ha hecho sino lo que querría hacer, y con nuestros datos tienes una información adicional que no coincide siempre con la que él aporta o la de los amigos; tienes información adicional: los datos objetivos"

Falta negocio

Y pese a que pueda intuirse que detrás de estas aplicaciones -en todo el mundo existen decenas de ellas- tienen como motor el negocio, quienes están detrás admiten en privado que no, que cuando buscan inversores y les dicen que se trata de herramientas sobre salud mental y, además, no patentables, decrece el interés por poner dinero en ello.

¿Y si falla?

El debate ético es, admiten todo, obvio y necesario. Como se explica el experto en bienestar y best-seller Grant Gamble en el Global Wellness Institut, este campo de trabajo genera una serie de riesgos: la violación de datos íntimos, la supresión de puestos de trabajo y, sobre todo, que se pueda "disminuir el valor de la interacción humana y los sistemas de apoyo, lo que podría conducir a una despersonalización de la atención".

Nada puede igualar el poder de un intercambio en persona y el toque humano

Grant Gamble

— Experto en bienestar y best-seller

"Por mucho que defienda el uso sensato de la IA, nada puede igualar el poder de un intercambio en persona y el toque humano". Gamble añade la cuestión ética, que sobrevuela sobre todo el debate: qué pasa si los algoritmos cometen un error "o priorizan los objetivos organizacionales sobre las necesidades individuales. No hay duda de que los malos actores migrarán al espacio de la IA y entrenarán sistemas para alcanzar objetivos financieros, por lo que se exige una cuidadosa selección al utilizar sistemas de IA para nuestro bienestar personal o laboral".