TikTok conocía sus efectos dañinos pero optó por medidas inútiles, según sus informes internos
TikTok es consciente de los riesgos que su plataforma presenta para los menores. A pesar de haber tomado medidas, sabía que eran ineficaces, según informes internos filtrados en el marco de una demanda de fiscales de EEUU contra la empresa, que alega que el material «se ha sacado de contexto».
Los usuarios de TikTok pueden desarrollar una adicción en tan solo 35 minutos, mientras que el contenido relacionado con suicidios y trastornos alimenticios ha aumentado significativamente, al igual que las transmisiones en vivo de menores de edad desnudándose para adultos que les pagan con monedas virtuales. Además, el algoritmo de la plataforma tiende a priorizar a personas que considera «atractivas». Estas son algunas de las conclusiones reveladas en comunicaciones internas de los ejecutivos de la compañía, expuestas a raíz de una investigación derivada de una demanda presentada por fiscales generales de EEUU contra la compañía.
El 8 de octubre, una coalición de 14 fiscales generales, tanto demócratas como republicanos, demandaron a TikTok por su papel en la crisis de salud mental que afecta a los menores de edad. La demanda incluye decenas de comunicaciones internas, documentos y datos de investigaciones, que inicialmente se mantuvieron en secreto debido a los acuerdos de confidencialidad firmados entre las autoridades y la empresa. Sin embargo, 30 de estos documentos fueron publicados por la Radio Pública de Kentucky, extraídos de la demanda del fiscal general de su estado que no censuró a tiempo los documentos que permanecían bajo secreto de sumario. Más tarde, toda esta información fue recogida por National Public Radio (NPR).
En un comunicado, Alex Haurek, portavoz de TikTok, defendió el historial de la compañía en cuanto a la protección de menores y criticó la publicación de información que, según él, ya había sido sellada judicialmente. «Desafortunadamente, esta demanda selecciona citas fuera de contexto y utiliza documentos desactualizados para presentar de manera distorsionada nuestro compromiso con la seguridad de nuestra comunidad», agregó. No obstante, la información divulgada por NPR refuerza lo que ya han señalado otras denuncias y estudios. Por ejemplo, un informe del Algorithmic Transparency Institute y AI Forensics, publicado el año pasado, advirtió que el sistema de recomendación de contenidos de TikTok, junto con «prácticas invasivas de recolección de datos», constituye un «riesgo» para jóvenes y menores.
Lo revelador de esta nueva información es que TikTok es consciente de los daños que su plataforma causa a los jóvenes y de que sus medidas de seguridad son insuficientes para reducir el tiempo de uso o proteger a los usuarios del contenido perjudicial.
Además, la empresa enfrenta la amenaza de una ley que podría forzar su salida de EEUU en enero si no se separa de ByteDance, su matriz china. Tanto el Gobierno de Joe Biden como congresistas de ambos partidos temen que el Gobierno chino pueda acceder a los datos de los más de 170 millones de usuarios estadounidenses que frecuentan TikTok.
No obstante, esta nueva demanda se centra en el manejo del contenido en TikTok y los peligros que enfrentan los menores en la plataforma. El año pasado, 41 fiscales demandaron por motivos similares a Meta, la propietaria de las redes Instagram, Whatsapp y Facebook, argumentando que son adictivas para los niños y adolescentes, y que perjudica su salud mental.
35 minutos, 260 vídeos
NPR revisó las secciones filtradas de la demanda, que incluyen revelaciones de ejecutivos de TikTok hablando abiertamente sobre los múltiples riesgos de la plataforma, siendo la adicción uno de los principales.
Según la demanda, un usuario puede desarrollar el hábito de usar TikTok tras ver 260 vídeos. Dado que los vídeos en la plataforma duran tan solo ocho segundos y se reproducen automáticamente uno tras otro, los investigadores estiman que bastan menos de 35 minutos para que «un usuario promedio se vuelva adicto».
Un documento interno mostró que la compañía era plenamente consciente de las funciones diseñadas para mantener a los jóvenes pegados a la pantalla, y que el uso compulsivo de TikTok está vinculado a efectos negativos en la salud mental, como la disminución de habilidades analíticas y el aumento de la ansiedad.
Sin embargo, las medidas de TikTok se perciben más como un intento de hacer ajustes superficiales para que todo siguiera igual. Aunque implementaron una herramienta para limitar el tiempo de uso, las pruebas internas revelaron que tuvo un impacto mínimo. Los propios responsables del proyecto admitieron que su verdadero objetivo era «mejorar la confianza pública en TikTok», en lugar de reducir el tiempo que los usuarios pasaban en la plataforma.
El poder del algoritmo
De acuerdo con una presentación interna de TikTok revelada por NPR, la compañía se ve a sí misma inmersa en «una carrera armamentística por la atención». Y por ahora se posiciona a la cabeza, porque una estimación interna señala que el 90% de los usuarios de smartphones menores de 17 años utiliza TikTok al menos una vez al mes.
Todo ello gracias a su potente algoritmo, mucho más eficaz entre los menores y jóvenes susceptibles a ser absorbidos por el flujo infinito de vídeos que ofrece la aplicación. «Creo que deberíamos ser conscientes de cómo afecta el algoritmo en la realización de otras actividades por parte de los niños. Y cuando digo otras actividades, me refiero literalmente a dormir, comer o simplemente mirar a alguien a los ojos», señaló un ejecutivo anónimo de la empresa.
La compañía volvió a implementar herramientas para la gestión del tiempo, como notificaciones que alertan sobre el uso prolongado de la app o funciones de control parental. Sin embargo, el informe revela que TikTok estaba al tanto de la limitada efectividad de estas medidas.
Filtro burbuja
El término filtro burbuja se refiere al fenómeno en el que los usuarios solo reciben contenido que confirma sus creencias, mientras se ignoran perspectivas opuestas. Este patrón es común en redes sociales, donde los algoritmos personalizan la información. Mark Zuckerberg, fundador de Facebook, fue uno de los primeros en implementar esta dinámica. En una entrevista, lo expresó de manera clara: «Saber que una ardilla muere en tu jardín puede ser más relevante para ti que enterarte de la muerte de personas en África».
Este efecto, similar a una ‘cámara de eco’, puede llevar a una visión distorsionada de la realidad, y TikTok es plenamente consciente. La compañía realizó una investigación interna de seguridad para observar el contenido potencialmente dañino de burbujas de filtros «negativas».
Bastan solo 20 minutos en TikTok, siguiendo cuentas de contenido doloroso o triste, que en los documentos revelados por la NPR describen como ‘painhub’ y ‘sadnotes’ para que el algoritmo comience a mostrar exclusivamente material negativo, incluyendo videos sobre suicidio y trastornos alimentarios relacionados con problemas de insatisfacción corporal, baja autoestima y depresión. A pesar de las investigaciones, TikTok continúa introduciendo a usuarios jóvenes en estas burbujas de contenido dañino.
¿Moderación de contenido?
La compañía cuenta con diversas medidas para moderar el contenido, pero algunas publicaciones relacionadas con el suicidio y las autolesiones logran eludir estas restricciones. Los informes internos indican que se encontraron vídeos de autolesiones que acumularon miles de visualizaciones antes de que la plataforma los eliminara.
Ejecutivos y empleados reconocen internamente que enfrenta serias tasas de filtración de contenido inapropiado que no se elimina. Este incluye desde la «normalización de la pedofilia» y la «glorificación de la agresión sexual a menores» hasta la «fetichización de menores», entre otros casos.
Asimismo, TikTok utiliza monedas virtuales con diferentes formas, como flores, peluches o rosas, según el valor monetario que representen. Las promueve como una forma para que los usuarios puedan «recompensar» a los creadores cuando disfrutan de su contenido Pues bien, los documentos señalan que TikTok investigó la transmisión en vivo de desnudos de menores, descubriendo que estas recibían a cambio miles de «regalos» de este tipo. En tan solo un mes, se enviaron un millón de «regalos» a menores.
Además, según las informaciones reveladas, los moderadores cuentan con directrices que establecen que no deben eliminar perfiles de personas menores de 13 años, a menos que los propios usuarios confirmen su edad.
La empresa es, por otra parte, consciente de los efectos negativos de los filtros de belleza en los usuarios, pero su algoritmo sigue priorizando a las personas que se consideran «más atractivas» según los cánones de belleza establecidos.
«Uno de nuestros descubrimientos clave durante este proyecto que se ha convertido en un gran desafío para el negocio en directo es que el contenido que obtiene la mayor participación puede no ser el contenido que queremos en nuestra plataforma», sentenció uno de los empleados.