La nueva reina del entretenimiento y la interacción social en el mundo de las redes sociales es, sin duda, TikTok. La compañía china no para de expandirse y no es de extrañar. La experiencia que ofrece esta red social es visual, adictiva y rápida. Los mejores ingredientes para enganchar a tu audiencia durante horas, pero también un funcionamiento donde el usuario pasivamente consume contenido y recae en las manos de un algoritmo desconocido.

Con las capacidades de decisión limitadas al máximo, el algoritmo de TikTok muestra a cada persona lo que concluye que le interesa. Un modus operandi que puede recordar a los vídeos que sugiere YouTube, pero que en este caso el usuario ni siquiera decide si acepta la recomendación, simplemente lo encontrará cuando deslice sobre la pantalla.

Como pasó con YouTube y su algoritmo de recomendación, esta ha sido una puerta de entrada en TikTok para los discursos de odio, racistas y misóginos. Un estudio del Instituto para el Diálogo Estratégico (ISD, en sus siglas en inglés) expone que la propaganda de extrema derecha se está expandiendo por|para la plataforma rápidamente. "TikTok ofrece una plataforma para que este contenido explícito llegue a nuevos públicos y potencialmente llegue a público más joven, cosa que es bastante preocupante", dijo Ciaran O'Connor, investigador del ISD.

Lección aprendida, pero no aprobada

La diseminación de discursos de extrema derecha es un problema al cual se han enfrentado antes otras plataformas como Facebook, Twitter y, la ya mencionada, YouTube. La investigación del ISD ha señalado que Tiktok ha tomado nota de sus predecesores, los cuales todavía luchan contra el contenido extremista a sus webs.

¿Pero ha aprendido bastante? Todo parece indicar que no. "TikTok ha mostrado signos de que han crecido rápidamente y han aprendido las lecciones de otras plataformas sobre las posibles trampas de estos discursos. Pero esta investigación demuestra que todavía les queda un camino por recorrer", ha declarado O'Connor a Politico.

En su análisis han estudiado más de un millar de vídeos, de los cuales el 30% contenían mensajes de extrema derecha, de estos el 80% siguen colgados en esta red social. Para los investigadores eso muestra cómo hay un grave vacío entre la denuncia y la retirada del contenido por parte de la empresa.

TikTok por su parte ha declarado que en qué el primer trimestre de 2021 había eliminado el 90% del contenido que incumplía las normas de publicación de la compañía. ¿Pero pasa cuando las normés son débiles? La conclusión del ISD es que la red de origen chino tiene serios problemas para moderar el contenido de su propia aplicación.

Nuevos códigos

La lógica para bloquear un contenido en Tiktok es muy simple: se retira cualquier cosa que sea muy explícita. Es una norma conocida por todo usuario, incluidos los neonazis que diseminan su propaganda por esta red.

¿Pero qué pasa cuando el algoritmo no identifica que estás hablando de nazis, que ahogara el holocausto, que estás siendo misógino? Entonces tu contenido tendrá una larga vida circulante por las pantallas de los móviles de miles de personas.

Como solo hay que evitar meter una foto de Hitler en tu vídeo para que este siga circulando, muchos de los vídeos con propaganda de extrema derecha utilizan nuevos códigos y símbolos. Politico lo ejemplariza con los neonazis que llenaron la red social con fotos y vídeos de Oswald Mosley, el líder fascista británico de los años 30 que tenía estrechos vínculos con el Tercer Reich, utilizándolo a él como símbolo de su causa para no ser bloqueados.

El corazón del mensaje queda intacto, pero el envoltorio es diferente. El resultado es que gracias a un pequeño giro los mensajes de odio pasan desapercibidos.

Perfecto para la propaganda

El ISD ha valorado que la plataforma de micro-vlogging está construida de una manera que favorece la expansión de este tipo de discursos. Un ejemplo con que ilustran esta afirma es la función "dúo", con la cual un usuario puede compartir pantalla con el vídeo de otro. Esta es una de las más frecuentes y efectivas en que la extrema derecha señala discursos que no le gustan y, de paso, señala a la persona que los ha hecho.

Más facilidades que pone la plataforma para que estos discursos se sigan moviendo es poder restringir los comentarios a un vídeo. Si un usuario puede hacer un vídeo donde hace apología del nazismo, pero si no le pone hashtags y no permite que nadie comente tiene muchas posibilidades de no ser eliminado. Muchos de los vídeos que se retiran de la plataforma china no son por el contenido audiovisual en sí, sino por las palabras claves que se encuentran la sección de comentarios. Una entrada fácil para Tiktok para identificar discurso ultra, pero que ellos mismos permiten cerrar.

Cuándo la plataforma detecta un hashtag que considera peligroso lo bloquea, pero los usuarios simplemente buscan variaciones de este. Por ejemplo, si se bloquea #ChinaVirus, los usuarios pasan a #ChinaFlu para seguir con su mensaje, según publica el ISD. Cuando en un futuro este hashtag también sea bloqueado se puede esperar que saldrá otro y así sucesivamente.

 

Imagen principal: La aplicación de TikTok en una pantalla de móvil / Europa Press