Recientemente, el director ejecutivo de OpenAI, Sam Altman, explicó en un pódcast cuál es el objetivo final de modelos de inteligencia artificial como ChatGPT. «No estamos tan lejos de un modelo de IA que lo sabe todo de tu contexto, sobre ti, sobre tu vida. Que sabe todo lo que haces y lo que te importa, que conoce a toda la gente que forma parte de tu vida».
Esa visión no incluye una realidad más preocupante: los asistentes de IA generativa con los que chateas están filtrando tus conversaciones. Un reciente estudio del IMDEA Networks Institute advierte que productos cada vez más populares como ChatGPT, Peplexity, Claude o Grok tienen «riesgos estructurales», pues integran rastreadores de terceros como Meta o Google que «pueden exponer los temas de conversación de los usuarios, las páginas web visitadas e incluso capturas de pantalla» de la actividad de los usuarios.
La falta de privacidad de los chatbots de OpenAI, Anthropic, Perplexity o xAI, de Elon Musk, va más allá. Y es que, según la investigación, también podrían filtrar la identidad de los usuarios y metadatos confidenciales. La generación de capturas de pantalla se da solamente en Grok.
Los chatbots pueden exponer los temas de conversación de los usuarios, las páginas web visitadas e incluso capturas de pantalla
Chatbots «inseguros»
Además, señalan que los mecanismos de control de acceso de esos grandes modelos de lenguaje (LLMs, por sus siglas en inglés) son «inseguros», pues solo hace falta un «simple enlace» a una conversación para acceder a su contenido. Eso hace que todos los chats sean, en la práctica, «públicos para cualquiera (incluidos los rastreadores) que tenga la URL».
El estudio advierte que, a pesar que esos chatbots ofrecen controles de privacidad para limitar la visibilidad de las conversaciones, estos son «potencialmente engañosos», pues «pueden inducir a error a los usuarios al dar a entender que ofrecen protecciones más sólidas de las que realmente se aplican». Para más inri, los formularios de consentimiento de cookies «presentan otras deficiencias de transparencia«.
Una persona usa la aplicación de inteligencia artificial ChatGPT en el ordenador. / Europa Press
El problema que los investigadores han detectado no es exclusivo de los asistentes de IA, sino una extensión de las «dinámicas económicas subyacentes basadas en datos» que dan forma al Internet actual, en el que gigantes como Google, Meta o TikTok colocan sus rastreadores en la web para medir el comportamiento de los usuarios y vender esa información a los anunciantes que quieren mandarles publicidad.
El estudio ha detectado esas vulnerabilidades, si bien indica aún no dispone de pruebas de que los rastreadores lean esas conversaciones. Sus autores indican que próximamente ampliarán la investigación para incluir otros servicios como Gemini, de Google; Copilot, de Microsoft; o Meta AI, de la propietaria de Facebook e Instagram; empresas que operan a la vez como proveedores de IA y rastreadores, algo que las convierte en «un modelo de amenaza diferente».
Suscríbete para seguir leyendo














