El algoritmo de TikTok es muy sensible y podría llevarte a un agujero de odio antes de que te des cuenta | TikTok

0 0

yoEl algoritmo de ikTok funciona de manera misteriosa, pero un experimento de Guardian Australia en una cuenta en blanco muestra con qué rapidez una noticia de último momento puede llevar a los usuarios a una madriguera cristiana conservadora y antiinmigratoria.

La semana pasada informamos sobre cómo los algoritmos de Facebook e Instagram están atrayendo a los jóvenes a la manosfera. Esta semana, exploramos qué sucede cuando el algoritmo de TikTok se activa en una cuenta en blanco sin interacciones como dar me gusta o comentar.

En abril, Guardian Australia creó una nueva cuenta de TikTok en un teléfono inteligente completamente en blanco vinculado a una dirección de correo electrónico nueva y sin usar. Se creó un perfil genérico de John Doe como un hombre de 24 años. Revisamos el feed cada dos semanas.

Al principio, era difícil identificar un tema claro para el vídeo que se transmitía a través de la aplicación. Luego, el 15 de abril, se produjo el apuñalamiento en la iglesia de Wakeley.

Durante los primeros dos días del experimento, TikTok ofreció contenido genérico sobre Melbourne, donde se encontraba el teléfono, junto con videos sobre hackeos de iPhone: contenido típico que uno puede esperar en TikTok como propietario de un iPhone.

Después del ataque de abril contra él, comenzaron a aparecer videos de los sermones cristianos conservadores de Mar Mari Emmanuel en la página Para Ti de la cuenta en blanco creada por Guardian Australia. Fotografía: suministrada

El tercer día, comenzaron a aparecer contenidos noticiosos en TikTok, coincidiendo con el ataque con apuñalamiento al obispo Mar Mari Emmanuel en la iglesia asiria Cristo el Buen Pastor en el suburbio de Wakeley, en Sídney.

No fue el vídeo del apuñalamiento en sí, sino más bien vídeos de sermones cristianos evocadores y conservadores de Emmanuel. Al parecer, verlos activó el algoritmo de TikTok: cada vez se mostraban más sermones suyos y empezaron a aparecer vídeos cristianos conservadores uno tras otro.

Tres meses después, el algoritmo sigue mostrando contenido cristiano conservador, junto con videos a favor de Pauline Hanson, a favor de Donald Trump, antiinmigrantes y antiLGBTQ, incluido un video que sugiere que se introduzca a drag queens en una trituradora de madera.

Al igual que en el experimento que se llevó a cabo en paralelo en las cuentas de Instagram y Facebook, ninguna publicación recibió un “me gusta” o un comentario. Pero a diferencia de ese experimento, el algoritmo de TikTok parece ser mucho más sensible a la más mínima interacción, incluido el tiempo dedicado a ver videos. Enviará contenido similar a los usuarios a menos que indiques que no estás interesado.

“Cuanto más busque o interactúe alguien con cualquier tipo de contenido en TikTok, más verá”, dijo un portavoz de TikTok. “Pero en cualquier momento, puedes actualizar por completo tu feed o hacernos saber que no estás interesado en un video en particular, presionando prolongadamente la pantalla y seleccionando 'no me interesa'”.

Jing Zeng, profesor adjunto de ciencias de la comunicación computacional en la Universidad de Zúrich, dice que hay mucha aleatoriedad en el algoritmo “para ti” de TikTok, y las interacciones tempranas pueden tener fuertes implicaciones en lo que ves.

“Si su primer video pro-Trump 'te hizo mirar', entonces el algoritmo 'para ti' puede probar más contenidos de ese tipo”.

Saltar la promoción del boletín informativo

Jordan McSwiney, investigador principal del Centro para la Democracia Deliberativa y la Gobernanza Global de la Universidad de Canberra, afirma que el enfoque de TikTok difiere del de Facebook e Instagram porque tiene un sistema de recomendaciones más activo, diseñado para que los usuarios sigan interactuando con los videos uno tras otro. Afirma que Meta está introduciendo esto en su producto Reels, que tiene muchas de las mismas funciones que TikTok.

Un ejemplo del contenido publicado en la página Para ti de TikTok en la cuenta en blanco creada por Guardian Australia. Fotografía: suministrada

“Sabemos que estas plataformas no operan con ningún tipo de licencia social. No son como una emisora ​​pública ni nada por el estilo. Están en deuda con una sola cosa, y esa es su meta final”, afirma.

“Su modus operandi no es facilitar un debate matizado ni promover una esfera pública democrática sana, sino crear contenido en el que la gente haga clic una y otra vez, para mantener la atención en la aplicación, para que la gente siga navegando, porque eso es un ingreso por publicidad”.

McSwiney dice que los gobiernos tienen un papel que desempeñar a la hora de obligar a las plataformas tecnológicas a ser más transparentes en cuanto a cómo funcionan los algoritmos, ya que actualmente existen en una “caja negra”, con una capacidad limitada para que los investigadores vean cómo funcionan.

Dice que las plataformas no pueden ignorar las preocupaciones sobre lo que se les ofrece como un mero reflejo de la sociedad en la que operan.

“Simplemente no creo que debamos dejar que empresas multimillonarias se salgan con la suya de esa manera. Tienen la responsabilidad social de garantizar que sus plataformas no provoquen daño; sus plataformas no deberían promover contenido sexista ni contenido racista”.

Fuente

Deja un comentario