La esfera digital reproduce aquello que pasa en la sociedad, por lo tanto, es de esperar que se puedan encontrar discursos machistas y misóginos (a veces muy extremos debidos a la naturaleza de las plataformas). Sin embargo, una cosa es que se plasme en el mundo digital y el otro que este sea amplificado por las mismas plataformas. Un estudio conjunto entre investigadores de la Universidad de Londres y la Universidad de Kent muestran como los algoritmos utilizados por las plataformas de redes sociales están amplificando rápidamente el contenido misógino extremo. Especialmente, el algoritmo amplifica este contenido en un perfil concreto: los hombres jóvenes. La investigación se han centrado en la plataforma Tiktok, pero los investigadores apuntan que sus hallazgos se pueden extrapolar en otras plataformas, todo y que adaptándose a sus particularidades.

Los investigadores dijeron que detectaron un aumento de cuatro veces en el nivel de contenido misógino sugerido por TikTok durante un periodo de seguimiento de cinco días, ya que el algoritmo sirvió vídeos más extremos, a menudo centrados en la ira y la culpa dirigida a las mujeres. En otras palabras, el estudio muestra cómo los hombres jóvenes de la generación Z son más propensos que los baby-boomers a creer que el feminismo ha hecho más daño que bien.

Qué es caer por la madriguera y cómo afecta a la misoginia de los hombres jóvenes

En inglés, cuando una persona se adentra o es absorbida por un torrente de contenido digital de nicho, se dice que ha caído al rabbit hole (madriguera, en catalán). Esta expresión hace referencia a Alícia en el País de las Maravillas, de Lewis Carroll, y cuando la protagonista entra a través de una madriguera en un nuevo mundo. Cuando se habla de estas llodrigueres en los espacios digitales se habla de usuarios que han seguido uno el hilo de algún tipo de contenido o mensaje y se ha adentrado en las comunidades que lo promueven y lo defienden. Es el caso de muchos hombres jóvenes que empiezan siguiendo determinados influencers con visiones machistas y se acaban adentrando en las comunidades más extremas que defienden activamente no solo el antifeminismo, sino la violencia en verso las mujeres.

Los investigadores británicos apuntan en su estudio que el contenido nocivo se presenta como entretenimiento mediante los procesos algorítmicos de las redes sociales. El material tóxico, odioso o misógino se "empuja" a los jóvenes, y los chicos que sufren ansiedad y salud mental deficiente tienen un mayor riesgo de introducir-ser en esta madriguera. Sin embargo, lo más importante del estudio radica en el hecho de que la misma plataforma empuja este contenido cuando entiende que el perfil del usuario cumple ciertos requisitos: ser joven y hombre, por ejemplo.

Sin embargo, ¿cómo se empieza? Los investigadores entrevistaron jóvenes que participaban y producían contenido en línea radical para ayudar a crear una serie de arquetipos de chicos adolescentes que podrían ser vulnerables a la radicalización. Según la investigación, el contenido sugerido inicialmente estaba en línea con los intereses declarados de cada arquetipo, pero después de cinco días los investigadores vieron que el algoritmo de TikTok presentaba cuatro veces más vídeos con contenido misógino como el acoso sexual o el desprestigio a las mujeres, que aumentó del 13% de los vídeos recomendados al 56%. "Los procesos algorítmicos de TikTok y de otros lugares de redes sociales se orientan a las vulnerabilidades de las personas, como la soledad o los sentimientos de pérdida de control, y gamifican contenido nocivo", ha apuntado la doctora Kaitlyn Regehr, investigadora principal, en el The Guardian.

El impacto al margen del mundo digital

"Las opiniones y las narrativas perjudiciales ahora se están normalizando entre los jóvenes", ha alertado a la investigadora principal. "El consumo en línea está afectando a los comportamientos fuera de línea de los jóvenes, ya que vemos que estas ideologías se mueven fuera de las pantallas y a los patios de las escuelas", ha subrayado.