Buscar
Usuario

Tecnología

El algoritmo de TikTok favorece la viralización de los contenidos de extrema derecha

Aunque TikTok prohíbe los contenidos de organizaciones de extrema derecha, los algoritmos hacen que se lleguen a ellas de manera muy sencilla.

El algoritmo de TikTok favorece la viralización de los contenidos de extrema derecha

Foto: Freepik

Las redes sociales nos han servido para democratizar, en cierto sentido, las informaciones. Pues a través de Twitter, Facebook, Instagram, TikTok ofrecemos contenido propio sobre cualquier tema sin necesidad de contar con ningún medio de información detrás.

Sin embargo, al mismo tiempo, estas plataformas también contribuyen a que se viralicen contenidos que incitan al odio. Todo está en saber cómo utilizar las aplicaciones; si no compartimos discursos machistas, lgtbifóbicos, racistas, capacitistas no favorecemos su expansión y, en cierto modo, no damos pie a que se tomen como "normales" estas actitudes. Aunque no todo es tan sencillo...

La investigación de la organización de estudios sobre los medios Media Matters for America evidencia que el algoritmo de TikTok favorece la viralización de los contenidos de extrema derecha en Estados Unidos. De hecho, esta red social muestra con más frecuencia contenidos de las organizaciones fascistas Three Percenter, QAnon, Patriot Party y Oath Keeper. Todo ello, a pesar de que TikTok prohíbe el contenido de estas cuatro agrupaciones ultraconservadoras.

¿Pero entonces cómo se viraliza su contenido? Según el citado estudio, las personas usuarias de esta famosa red social pueden llegar a estas organizaciones fascistas siguiendo las propias recomendaciones de cuentas que les muestra TikTok. Y, si siguen a una, se les sugerirá seguir a las demás.

Los pasos que llevan a la extrema derecha

Todo comienza en la pestaña "Para ti". Es aquí donde TikTok recomienda publicaciones a los usuarios y usuarias basadas en su algoritmo, es decir, les recomiendan contenido a partir de las cuentas que siguen y de lo que hayan visualizado anteriormente. Es aquí donde se les muestran vídeos de las organizaciones y si comienzan a seguirlas, se les sugerirá las otras cuentas con contenido fascista.

Media Matters for America concluye que "los usuarios pueden ser fácilmente expuestos a cuentas y contenido de extrema derecha y continuar recibiendo más contenido similar".

Artículos recomendados

Comentarios