Los ejecutivos de TikToksabían los daños que la aplicación podía provocar en adolescentes. Sus propias investigaciones confirmaban unos cuantos problemas de seguridad infantil como, por ejemplo, que había menores de edad desnudándose en vivo en la plataforma a petición de adultos, o que sus filtros de belleza podían influir en su salud mental. Pero, por lo que se revela de las comunicaciones internas de la compañía, no parece que hayan hecho demasiado por protegerlos.
Esta información se ha hecho pública gracias a la filtración de documentación interna de la red social a la que ha accedido la NPR, la radio pública estadounidense. En un artículo explican que, tras la publicación de un artículo de Forbes en 2022, en el que se denunciaba que había menores de edad desnudándose en vivo en la plataforma -lo denominaba como un club de ‘striptease’ lleno de chicas de 15 años-, la compañía lanzó su propia investigación.
«Fue entonces cuando los funcionarios de TikTok se dieron cuenta de que había un número ‘elevado’ de ‘streams’ menores de edad que recibían una moneda digital en la aplicación en forma de ‘regalo’ o ‘moneda’ a cambio de desnudarse: dinero real convertido en moneda digital, a menudo en forma de un juguete de peluche o una flor», explican.
Descubrieron que había una cantidad nada desdeñable de adultos enviando mensajes directos a niños y niñas para que procediesen a quitarse la ropa. Solo en un mes comprobaron un millón de «regalos» a menores que participaban en conductas «transaccionales».
Enganchar a menores
Pero no fue lo único que encontraron. Los documentos no censurados, que forma parte de una investigación de más de dos años sobre TikTok realizada por 14 fiscales generales y que llevó a funcionarios estadounidenses a demandar a la empresa el pasado martes, también muestran que los empleados eran conscientes de que el exceso de tiempo que los adolescentes pasan en las redes sociales puede ser perjudicial para su salud mental.
Pese a crear una herramienta que permite a madres y padres establecer límites de tiempo para el uso de la aplicación por parte de los menores a 60 minutos por día, la red social concluyó que esta tuvo poco impacto: el tiempo solo bajó en 1,5 minutos en el uso, de 108,5 minutos a 107. El material confidencial resalta que la compañía no volvió a abordar este problema.
Es mucho tiempo de uso para un adolescente, sobre todo cuando son conscientes de que el algoritmo hiperpersonalizado de la plataforma puede ser excesivamente atractivo. Para adquirir el hábito hace falta ver simplemente 260 vídeos que, si bien a priori parecen bastantes, «pueden durar tan solo ocho segundos y se reproducen para los espectadores en rápida sucesión, de manera automática», escribieron los investigadores, como se refleja en la demanda. «
Por lo tanto, en menos de 35 minutos, es probable que un usuario promedio se vuelva adicto a la plataforma«, añaden.
En otro documento interno encontraron que la compañía era consciente de que sus funciones diseñadas para mantener a los jóvenes en la aplicación «generaban una necesidad constante e irresistible» de seguir abriéndola.
Salud mental
Y, siguiendo con las funciones, el litigio contra TikTok también destacó que TikTok era consciente del daño que hacen los filtros de belleza que usan las personas usuarias para verse en vídeos más delgadas, con narices más finas o labios más anchos.
En concreto, hablan del filtro ‘Bold Glamour’, que fue bastante polémico por considerarse «perturbador». Utiliza inteligencia artificial para modificar los rostros de las personas y conseguir que se parezcan a modelos con pómulos altos y mandíbulas marcadas.
Los empleados, según los papeles a los que accedió NPR, sugirieron internamente a la empresa «ofrecer a los usuarios recursos educativos sobre los trastornos de la imagen» y crear una campaña «para crear conciencia sobre los problemas de baja autoestima (causados por el uso excesivo de filtros y otros problemas)». Además, sugirieron agregar un banner o un vídeo a estos filtros que incluyera «una declaración de concientización sobre los filtros y la importancia de una imagen corporal positiva y la salud mental».
Y hay más: los documentos muestran que la aplicación prioriza a las personas guapas gracias al rediseño de su algoritmo. «Al cambiar el algoritmo de TikTok para mostrar menos ‘sujetos no atractivos’ en el feed ‘For You’ [Para ti], [TikTok] tomó medidas activas para promover una norma de belleza estrecha aunque pudiera afectar negativamente a sus usuarios jóvenes”, escribieron las autoridades de Kentucky.
Contenido sin controlar
También son conscientes de las «burbujas de filtro», es decir, el usuario «encuentra solo información y opiniones que se ajustan a sus propias creencias y las refuerzan, provocadas por algoritmos que personalizan la experiencia en línea de un individuo», algo que supone unos peligros que conocen.
La información ahora revelada muestra que durante una presentación interna sobre seguridad en 2020, los empleados advirtieron que la aplicación «puede ofrecer contenido potencialmente dañino de manera expedita«. La compañía llevó a cabo algunos experimentos internos con cuentas de prueba. Un empleado aseguró que había «muchos vídeos que mencionan el suicidio», incluido uno que pregunta: «Si pudieras suicidarte sin lastimar a nadie, ¿lo harías?».
Además, según los propios estudios de TikTok, sabían que algunos contenidos de suicidio y autolesión escaparon de las primeras rondas de moderación humana. Esto es así porque si bien la primera fase del control de contenidos la hace la inteligencia artificial, la segunda la hacen personas según la cantidad de visitas que tiene el vídeo.
Así, el estudio señala vídeos de autolesiones que tuvieron más de 75.000 visualizaciones antes de que TikTok los identificara y eliminara. Además, de forma interna TikTok reconoce que tiene tasas de «filtración» sustanciales de contenido que, pese a que debería estar prohibido, no se elimina. En los documentos internos se habla de un niño enviado a la sala de emergencias después de intentar un desafío peligroso de la plataforma.