La inteligencia artificial ya demuestra una precisión superior al 90% en la detección de síntomas de trastornos como la depresión o la esquizofrenia, analizando patrones en el lenguaje o los rasgos faciales que a menudo son imperceptibles para el ojo humano. Sin embargo, su despliegue como herramienta de apoyo clínico depende de garantizar la privacidad de los pacientes cuyos datos son indispensables para su entrenamiento.
La inteligencia artificial (IA) puede transformar el diagnóstico y tratamiento de los trastornos mentales, un campo que actualmente se enfrenta a la escasez mundial de terapeutas y métodos que consumen muchos recursos, según un estudio publicado en la revista Nature Computational Science que revela tanto los riesgos como las soluciones para construir una IA de salud mental que sea confiable y segura.
Los sistemas de IA, especialmente los que pueden analizar múltiples tipos de datos a la vez —como el texto, la voz y las expresiones faciales—, podrían hacer que la atención a la salud mental sea más accesible y precisa. Algunos estudios ya reflejan una precisión superior al 90% en la clasificación de la depresión o el alzhéimer y de casi un 98% en la detección del habla asociada a la esquizofrenia, basándose en el análisis de patrones del lenguaje que un humano podría pasar por alto.
Sin embargo, el uso de esta tecnología conlleva un desafío: proteger la privacidad de los pacientes, cuyos datos más íntimos son necesarios para entrenar a estos modelos.
IA multimodal
Los terapeutas humanos evalúan la salud mental de una persona a través de una combinación de señales verbales, visuales y acústicas. De manera similar, la IA multimodal puede ser entrenada para detectar patrones que el ojo y el oído no entrenados podrían pasar por alto.
Por ejemplo, la depresión se asocia con expresiones faciales, una prosodia del habla y patrones semánticos característicos, mientras que la ansiedad a menudo se manifiesta en la dificultad para mantener el contacto visual.
El habla es clave para detectar el trastorno de estrés postraumático (TEPT), y tanto el habla como los rasgos faciales son valiosos para identificar el trastorno bipolar. Los modelos de IA que integran texto, audio y vídeo han demostrado ser muy prometedores para mejorar el diagnóstico y apoyar a los profesionales clínicos en su labor.
¿Cómo hacerlo bien?
A pesar de este potencial, el desarrollo de la IA para la salud mental se ve obstaculizado por los graves riesgos de privacidad que entraña. Para entrenar estos modelos se necesitan grabaciones de terapia muy sensibles que contengan datos identificables de voz y rostro, protegidos por normativas estrictas como el GDPR en Europa y la HIPAA en Estados Unidos.
La filtración de esta información personal podría tener consecuencias para los pacientes, desde la discriminación laboral y el aislamiento social hasta el chantaje o la suplantación de identidad mediante deepfakes (falsificaciones profundas de audio o vídeo), lo que podría agravar su estado de salud mental.
Esta amenaza no solo proviene de la filtración de los datos originales, sino también de los propios modelos de IA, que pueden «memorizar» información sensible y revelarla inadvertidamente a través de ataques informáticos.
Posibles estrategias
Para hacer frente a estos desafíos, los autores de esta investigación proponen una serie de estrategias que se pueden agrupar en dos grandes categorías: la privacidad de los datos y la privacidad del modelo.
La primera se centra en proteger la información antes de que llegue al modelo, principalmente a través de la anonimización, que elimina la información de identificación personal (PII, por sus siglas en inglés) de las transcripciones de texto, las grabaciones de audio (modificando la voz para que no sea reconocible) y los vídeos (ocultando el rostro).
Sin embargo, esta técnica se enfrenta a limitaciones, ya que a menudo degrada la calidad de los datos y puede no ser suficiente para evitar la reidentificación de una persona si se cruza con otras fuentes de información.
Datos sintéticos
Una alternativa a la anonimización es la generación de datos sintéticos. Mediante modelos de IA, se pueden crear conjuntos de datos completamente nuevos que imitan las características estadísticas de los datos reales de pacientes, pero sin corresponder a ninguna persona real. Esto permitiría entrenar modelos de IA sin exponer información sensible.
El reto es generar datos que sean lo suficientemente realistas y complejos como para ser clínicamente útiles, especialmente en el caso de las interacciones terapéuticas, que son largas y contextuales. Los métodos actuales a menudo producen diálogos cortos y carecen del conocimiento psiquiátrico necesario para ser verdaderamente eficaces.
Referencia
Towards privacy-aware mental health AI models. Aishik Mandal et al. Nature Computational Science, volume 5, pages863–874 (2025). DOI:https://doi.org/10.1038/s43588-025-00875-w
Técnicas de privacidad
La segunda gran estrategia es el entrenamiento consciente de la privacidad, que integra la protección directamente en el proceso de aprendizaje del modelo. Técnicas como la Privacidad Diferencial (DP) añaden «ruido» matemático a los datos durante el entrenamiento, lo que dificulta enormemente la posibilidad de que el modelo final filtre información sobre individuos específicos.
Otra aproximación es el Aprendizaje Federado (FL), que permite entrenar un modelo de forma descentralizada en los dispositivos locales (por ejemplo, en diferentes hospitales) sin que los datos brutos de los pacientes tengan que ser compartidos en un servidor central. No obstante, estas técnicas a menudo reducen la precisión del modelo, lo que plantea un dilema fundamental entre privacidad y utilidad.
Encontrar el equilibrio entre proteger la confidencialidad del paciente y mantener la eficacia diagnóstica del modelo de IA es, por tanto, el núcleo del problema. No existe una solución única, sino que se requiere un enfoque integral.
Lo que propone esta investigación es un flujo de trabajo que comienza con la recopilación ética de datos, obteniendo siempre el consentimiento informado del paciente. A continuación, se deben aplicar rigurosas técnicas de anonimización o generar datos sintéticos de alta calidad. El entrenamiento de los modelos debe incorporar métodos que preserven la privacidad desde el diseño.
Finalmente, tanto los datos como los modelos resultantes deben ser sometidos a una evaluación exhaustiva para medir tanto su nivel de privacidad (por ejemplo, probando si un atacante podría reidentificar a alguien) como su utilidad clínica (su capacidad para realizar diagnósticos precisos). Una vez superados estos procedimientos, la IA podría pasar a la fase clínica.