Lo mejor de la información de México y el mundo
Facebook POSTA header X POSTA header Instagram POSTA header Youtube POSTA header TikTok POSTA header
Internacional

Estudio revela promoción de contenidos misóginos en TikTok y YouTube Shorts

Un reciente estudio de la Dublin City University reveló que TikTok y YouTube Shorts promueven contenidos misóginos, anti-LGBTQ y transfóbicos, dirigidos hombres jóvenes, mediante su algoritmo

Logo de TikTok y YouTube Shorts. Foto: Especial
Logo de TikTok y YouTube Shorts. Foto: Especial

Publicado el

Por: Jesús Morales

DUBLÍN, Irlanda.- Un reciente estudio realizado por la Dublin City University, publicado el 17 de abril, demostró que TikTok y YouTube Shorts, a través de sus algoritmos, promueve contenidos misóginos, anti-LGBTQ y transfóbicos principalmente en hombres adolescentes.

El estudio fue realizado por el Centro Anti-Bullying, de la Dublin City University, bajo el título de “Recomendando toxicidad: El rol de las funciones algorítmicas de recomendación en YouTube Shorts y TikTok en la promoción de influencias supremacistas masculinos.” Asimismo, este fue llevado a cabo por la Dr. Catherine Baker, la Prof. Debbie Ging y la Dr. Maja Brandt Andreasen.


Enfoque 

Su enfoque se basó en “el papel que desempeñan los algoritmos de recomendación en la promoción de contenidos extremistas” en los usuarios de redes sociales y se señala al “crecimiento de la cultura de los influencers” en plataformas como TikTok, donde han aumentado los creadores de contenido que son “emprendedores de gran influencia ideológica”, como Andrew Tate, Myron Gaines y Sneako.

En ese sentido, se menciona que este tipo de personajes suelen monetizar “la inseguridad masculina”, para así “extender la ideología antifeminista y anti-LGBTQ,” a la vez de ser la “puerta de entrada a la extrema derecha y otras visiones extremas del mundo.

Por tanto, el estudio buscó entender “cómo funcionan los algoritmos de recomendación” en TikTok y YouTube Shorts, pues, como lo marca la investigación, las empresas de redes sociales no son transparentes en la manera que funcionan sus algoritmos, principalmente en su funcionamiento en algoritmos personalizados y basados en historial de visitas de usuarios reales. 

¿Qué es la “manosfera”? 

Como es definido en la investigación: 

La Manosfera es una red informal de grupos y comunidades antifeministas y machistas, que ha florecido gracias a las posibilidades tecnológicas de las redes sociales”

Entre estos grupos, originalmente, se encontraban los Pick-Up Artists, quienes enseñan a hombres heterosexuales “el arte de la conquista sexual”; a estos se agregan los Men Going Their Own Way, que son “hombres que han decidido cortar por completo los lazos con las mujeres”; le siguen, los Traditional Conservatives, que son hombres que promueven “el matrimonio heterosexual, el patriotismo y la lucha contra el aborto”; y, finalmente, los Incels o Involuntary Celibates, que son hombres que creen que las mujeres “les niega el sexo debido a sus atributos físicos inferiores, la influencia del feminismo y el deseo biológicamente prescrito de las mujeres por los machos alfa.”

No obstante, esta red se ha expandido, llegando a los coaches de vida, empresarios neomasculinistas y supremacistas masculinos, que se benefician de “las inseguridades masculinas” y llaman a su contenido como de “salud mental” o “motivacional”. A la par, se menciona que la manosfera suele estar cercana a ideologías de extrema derecha, así como a agendas conspirativas y trasnfóbicas. 


Método

El estudio buscó simular “la realidad digital de los chicos y jóvenes” usuarios de TikTok y YouTube Shorts, los cuales, se indica, son más propensos a “convertirse en objetivo de la manosfera”.

De forma que, por medio de 10 cuentas (cinco en TikTok y cinco en YouTube Shorts) en 10 smartphones sin ningún tipo de información previa. Para cada plataforma, dos cuentas, una simulando ser un chico de 16 y otra uno de 18 años, las cuales buscaban contenidos asociados a “hombres jóvenes de género normativo”; otras dos, igual pretendiendo ser un chico de 16 y otra de 18 años, buscaban activamente asociarse a contenidos con la manosfera; y, finalmente, una cuenta en blanco que buscaba “deliberadamente” no asociarse a ningún contenido en particular.

La investigación “vio, grabó y codificó más de 29 horas de vídeos”; 12 horas y 43 minutos de vídeos para TikTok y 16 horas y 41 minutos de vídeos de YouTube Shorts, con los cuales pudieron determinar “la frecuencia y la naturaleza de las recomendaciones de la manosfera, en función de los distintos perfiles de edad, intereses y tipos de interacción.” 

Resultados

Luego de lo anterior, se reveló que los contenidos provenientes por hombres influencers fueron la gran mayoría de los videos que eran recomendados, lo que, para el estudio, demuestra “en el ecosistema actual de la manosfera.”

En una comparativa, YouTube Shorts fue el lugar donde hubo mayor recomendación de “contenido tóxico” que en TikTok, pues, en una media, en el primero era el 61.5% de los videos mostrados, frente a 34.7% del segundo.

En específico, en YouTube Shorts, para las cuentas que simularon tener interés por contenido de la manosfera el contenido de este tipo representaba el 71.4% de lo que se mostraba, mientras que en las cuentas que buscaba contenido de género normativo, formaba parte del 51.6% de lo que se recomendaba.

Para el caso de TikTok, a las cuentas interesadas por la manosfera, 32.5% era sobre “contenido tóxico”, mientras que, en las cuentas que buscaban contenido de género normativo, formaba parte del 36.6% de lo que se enseñaba.

En todos los tipos de cuentas, en los primeros 23 minutos del experimento comenzaron a recibir “contenidos tóxicos” y, en los primeros 26 minutos, contenidos de la manosfera.

Gráfica sobre TikTok que muestra la prevalencia de contenido sobre la manosfera

En TikTok, a las cuentas que buscaba contenido de género normativo de 16 y 18 años se les mostró contenidos sobre la manosfera en menos de 9 y 15 minutos, respectivamente. Por su parte, las que tenían interés sobre contenidos de la manosfera, a estas se les recomendó luego de 10 y 25 minutos, respectivamente.

En el caso de YouTube Shorts, las cuentas sobre contenido de género normativo de 16 y 18 años se les recomendó contenidos de la manosfera después de 17 y 2 minutos de uso, respectivamente. Por su parte, las que mostraban interés por la manosfera, estos contenidos aparecieron después de 8 minutos y menos de 2 minutos, respectivamente.

Asimismo, se menciona que, en cuanto aparecían los contenidos de la manosfera, su cantidad “aumentaba rápidamente”. De forma que, se señala que en la “última ronda del experimento', en la que se vieron 400 videos y duró entre 2 a 3 horas, el 76% de lo mostrado eran contenidos “problemáticos o tóxicos” en TikTok y un 78% en YouTube Shorts, principalmente de la manosfera, sobre ser macho alfa o antifeminista.

Como acotación, se indicó que también ser les recomendaban contenidos “reaccionarios de derechas y conspirativos”, siendo un 13.6% en TikTok y 5.2% en YouTube Shorts, siendo, muchos de estos contenidos, antitransgénero.

Gráfica sobre YouTube Shorts que muestra la prevalencia de contenido sobre la manosfera

Otras Noticias