La inteligencia artificial (IA) generativa está cada vez más presente en todos los sectores, desde la industria a la salud, donde su avance parece imparable. Según el informe ‘Top 100 de casos de uso de GenAI en 2025’ de la revista ‘Harvard Business Review’, el principal uso de la IA generativa es para terapia y acompañamiento emocional, por encima del laboral y el creativo. Millones de personas emplean modelos de Lenguaje Extenso (LLM, por sus siglas en inglés) –un tipo de IA generativa que se centra en el procesamiento y generación de lenguaje– como ChatGTP, Copilot y Gemini, y chatbots específicos de salud mental como Woebot, Youper, Therabot y Wysa para pedir consejo, desahogarse y buscar apoyo, ya sea como alternativa a la terapia convencional o como complemento. Character.IA, aplicación web muy empleada por jóvenes, tiene un bot llamado ‘psicólogo’, y LuzIA brinda ayuda psicológica a través de WhatsApp.
Entre los factores que motivan a los usuarios a usar chatbots con fines terapéuticos están su accesibilidad –24 horas, 7 días a la semana y desde cualquier lugar–, su gratuidad, les evitan exponerse ante otras personas, ofrecen respuestas rápidas, y se sienten comprendidos y menos juzgados. Sin embargo, también tienen sus riesgos, especialmente como reemplazo de la supervisión clínica humana.
«Los sistemas de IA han llegado para quedarse y que evolucionan a velocidades vertiginosas. Sin embargo, no parece que un algoritmo, por muchas variables que comprenda, pueda aprender las subjetividades de los individuos, tan potencialmente distintas incluso en las mismas circunstancias, y, además, tan dependientes de la historia propia de cada sujeto, de la que la IA no es conocedora», opina José Berdullas Barreiro, psicólogo clínico y vocal del Colegio Oficial de Psicología de Galicia (COPG).
La organización Mental Health Europe (MHE) publicó este año un informe en el que analiza las oportunidades, los riesgos, los límites y las consideraciones éticas en torno al uso de herramientas de IA en la atención de la salud mental, y en el que ofrece recomendaciones a organizaciones civiles, responsables políticos y proveedores de servicios, entre otros agentes.
Entre sus beneficios potenciales, la MHE destaca una mejor accesibilidad a la salud mental, especialmente para las poblaciones desatendidas, la reducción de la carga administrativa en los sistemas de salud y el apoyo inmediato en los momentos críticos. En el ámbito clínico, además, se están promoviendo estos sistemas para personalizar tratamientos, mejorar la precisión diagnóstica y apoyar intervenciones oportunas.
Asimismo, puede acelerar la investigación en salud mental y facilitar el desarrollo de nuevos enfoques terapéuticos, como las terapias de realidad virtual. Sin embargo, matiza que la evidencia que respalda los beneficios de la IA en salud mental es limitada al encontrarse en una etapa experimental.
Contras
El informe de la MHE también alerta de los riesgos que plantea: puede malinterpretar al usuario y ofrecer información inexacta o proporcionar respuestas inapropiadas, lo que podría provocar una falsa sensación de seguridad en el demandante de ayuda. Respecto a esto, subraya que los problemas de salud mental se manifiestan de forma única en cada individuo, condicionados por experiencias subjetivas, contextos socioculturales, factores ambientales e historias personales, difíciles de reducir a modelos computacionales, lo que dificulta que la IA interprete con precisión las necesidades individuales y brinde un apoyo confiable.
«Si entendiésemos los diagnósticos de forma simplista, únicamente como un listado de síntomas a cubrir, probablemente las ‘máquinas’ fuesen más capaces de enumerarlos sin olvidar ninguno y de agruparlos bajo un nombre. Sin embargo, un diagnóstico implica mucho más. Supone tener en cuenta los síntomas, por supuesto, pero también a la persona que los relata, su contexto personal y social, su historia previa…, y muchas veces incluso pequeñas señales no verbales que ocurren en la interacción humana», explica el psicólogo gallego.
Según un estudio publicado en ‘Mental Heath Research’, los usuarios describen estos ‘psicólogos artificiales’ como empáticos. Respecto a esto, la MHE advierte de que, aunque estas herramientas pueden simular emociones como la tristeza, la empatía y la curiosidad, son solo respuestas programadas. Otros riesgos de estos programas son las filtraciones de datos, los accesos no autorizados y el intercambio de datos con terceros; la falta de consentimiento informado, y la despersonalización de la atención.
Asimismo, un estudio del Instituto de Tecnología de Massachusetts (MIT) concluye que la interacción intensiva con chatbots se vincula a mayores niveles de soledad y dependencia emocional en ciertos usuarios, y a una menor socialización. «Parece existir el riesgo de que un mayor uso de las tecnologías en tareas vitales que suponen necesariamente el encuentro con lo humano vaya derivando en un mayor aislamiento y, por tanto, acaben también en un mayor sentimiento de soledad. Esto sin negar que, en ciertas circunstancias, el contacto con un chatbot pueda producir un cierto alivio inicial, tal y como indican algunos estudios. Pero siempre será un arma de doble filo, porque, en definitiva, ni una ‘inteligencia’ artificial es capaz de tener humanidad ni lo humano es reductible a la inteligencia», explica Berdullas, que añade que tampoco se puede obviar el posible efecto que su uso extendido pueda tener sobre el proceso de pensamiento.
Por otra parte, los especialistas alertan de que los chatbots no están sometidos a un control de ética, lo que puede generar importantes problemas. Sobre este aspecto también incide el informe de la MHE, que advierte de la necesidad de una regulación centrada en los derechos humanos.
«No es posible una clínica sin ética. El tratamiento psicológico no es reductible a las técnicas que se aplican. Implica siempre una determinada forma de hacer, de estar en el mundo, unos valores inalienables, que ponen a la persona en el centro. La aplicación de técnicas psicológicas sin ética puede dar lugar a situaciones y acciones aberrantes«, advierte.