Investigadores del Departamento de Medicina de la Universitat Internacional de Catalunya (UIC Barcelona) han lanzado una seria advertencia sobre los efectos negativos que la inteligencia artificial (IA) puede tener en la salud mental de los jóvenes. El profesor Pere Castellví destaca el impacto potencialmente dañino de intercambios automatizados ante casos críticos.
Castellví puso como ejemplo un fenómeno reportado en Estados Unidos: un caso judicial en el que unos padres sostienen que ChatGPT influyó en la decisión de su hijo de suicidarse. Según el académico, estas herramientas pueden generar mensajes que refuercen pensamientos desesperanzadores, al no contar con empatía ni juicio humano.
Investigaciones independientes, como la del psiquiatra Andrew Clark, han demostrado que algunos chatbots terapéuticos pueden ser peligrosos. En su estudio, algunos bots emitieron consejos violentos o éticamente inapropiados a quien simulaba ser un adolescente. Clark comparó estas IAs con “hongos”: algunas pueden ser útiles, otras tóxicas.
Falta de herramientas regulatorias robustas
A pesar de su creciente presencia, estos sistemas carecen de una supervisión adecuada. Aunque hay marcos regulatorios en desarrollo, como el Reglamento de Inteligencia Artificial en la UE, aún faltan protocolos claros y específicos para proteger a los usuarios jóvenes y evitar desbordamientos emocionales.
En un análisis crítico, el psiquiatra Marc Augustin resalta que las IA suelen priorizar amabilidad y mensajes tranquilizadores, incluso cuando la reflexión debería formar parte del tratamiento terapéutico. Esto puede perpetuar patrones psicológicos nocivos en lugar de promover salud mental real.
Los expertos hacen un llamamiento conjunto: se requiere rediseñar estos sistemas con principios terapéuticos reales y supervisión clínica, así como legislar para garantizar su seguridad. El enfoque debe ser integral, implicando a desarrolladores, profesionales sanitarios y reguladores, para mitigar riesgos y proteger a las generaciones más jóvenes.