Aunque la mayoría reconoce que los deepfakes, videos editados o generados utilizando herramientas de IA y que pueden mostrar personas reales o inexistentes son falsos, un nuevo estudio revela que este material sigue modificando impresiones y juicios sobre las personas que aparecen. Etiquetas y advertencias ayudan, pero no bastan para frenar la persuasión visual.
Saber que un video fue creado con IA no siempre lo hace menos «persuasivo» para los espectadores, según un nuevo estudio publicado en la revista Communications Psychology. Los científicos de la Universidad de Bristol, en el Reino Unido, comprobaron que las personas pueden verse influenciadas por la información que se les presenta en los deepfakes o videos producidos con IA, incluso si saben que es falsa, poco confiable o irrelevante.
Según un artículo publicado en Phys.org, aunque es conocido que la Inteligencia Artificial (IA) puede fabricar imágenes y videos, muchas personas siguen dejándose convencer por los deepfakes, incluso luego de utilizar estas propias herramientas. La investigación concluye que cuando los espectadores son advertidos de que un video fue generado por IA y lo reconocen como falso, igualmente el contenido sigue influyendo en sus juicios sobre la persona que aparece.
Videos generados con IA: el impacto en las personas
Los especialistas diseñaron tres experimentos online con 175, 275 y 223 participantes cada uno, para examinar cómo distintos tipos de advertencias, específicas o genéricas, afectan la percepción de videos deepfake en los que una persona confiesa un delito o una falta moral. En algunos grupos se mostró una etiqueta concreta antes de la reproducción; en otros, una advertencia genérica sobre la existencia de videos falsos; mientras que un tercer grupo vio versiones en las que el audio estaba distorsionado.
La investigación contradice una suposición común, aquella que sugiere que la transparencia por sí sola, o sea etiquetar un contenido como generado por IA, es suficiente para neutralizar su impacto. Desde una perspectiva psicológica, la advertencia reduce la influencia, pero sin anularla por completo.
Referencia
The continued influence of AI-generated deepfake videos despite transparency warnings. Simon Clark and Stephan Lewandowsky. Communications Psychology (2026). DOI:https://doi.org/10.1038/s44271-025-00381-9
La transparencia no alcanza: los deepfakes siguen actuando
Los resultados muestran que la veracidad y la persuasión son dimensiones distintas. Una pieza audiovisual puede ser psicológicamente persuasiva por su tono, expresión facial, ritmo y contexto, y esas señales siguen modelando impresiones aún cuando la mente consciente reconoce la falsedad. Esto genera riesgos concretos: denuncias públicas, daño en la reputación de las personas y, en escenarios extremos, decisiones legales o electorales influenciadas por material que realmente es falso.
Los autores del estudio proponen que las soluciones combinen el etiquetado de los deepfakes con educación mediática y tecnológica, mejores herramientas de detección y consideraciones sobre la fuente de la advertencia: por ejemplo, las etiquetas pueden ser más influyentes si vienen de verificadores independientes que si nacen de plataformas o medios con intereses creados. Además, piden más investigación para entender los mecanismos cerebrales que mantienen la influencia del contenido desacreditado, como impacto en la memoria o las emociones.















