“Está bien, todos los demás lo están haciendo”: ¿cómo abordamos el papel que la violencia en las redes sociales desempeñó en los disturbios del Reino Unido? | Redes sociales
AEntre los rápidamente condenados y sentenciados la semana pasada por su participación en los disturbios racistas se encontraba Bobby Shirbonque había abandonado su fiesta de cumpleaños número 18 en un salón de bingo en Hartlepool para unirse a la turba que recorría las calles de la ciudad, atacando casas que se creía ocupadas por solicitantes de asilo. Shirbon fue arrestado por romper ventanas y arrojar botellas a la policía. Fue sentenciado a 20 meses de prisión.
Durante su detención, Shirbon había afirmado que sus acciones estaban justificadas por su ubicuidad: “Está bien”, dijo a los agentes, “todo el mundo lo está haciendo”. Por supuesto, esa ha sido una afirmación constante de quienes se han visto atrapados en actos de violencia masiva a lo largo de los años, pero para muchos de los cientos de personas que ahora se enfrentan a importantes sentencias de prisión, la “defensa” tiene una resonancia más nítida.
Shirbon se distrajo de su celebración de cumpleaños por las alertas en sus redes sociales. Parte de esto tal vez era desinformación sobre los trágicos eventos en Southport; pero adjuntos e incrustados en eso habrían estado los fragmentos y clips de videos que rápidamente se convirtieron en el catalizador sin contexto de la violencia que se extendía.
Cualquiera que tenga un teléfono probablemente habrá visto con creciente horror esos videos la semana pasada: el video de racistas que detienen autos en puestos de control improvisados en Middlesbrough; el del hombre negro solitario que es atacado en un parque en Manchester; el del bebedor afuera de un pub en Birmingham que es atacado por una pandilla con intenciones de vengarse. La evidencia visceral de la violencia –una sensación de barbarie en tiempo real que de repente se normaliza– es, para algunos, la chispa esencial para salir a la calle: “todos los demás lo están haciendo”. En ese sentido, la mayoría de nosotros ahora llevamos en nuestros bolsillos los detonantes de la Kristallnacht.
Durante la última semana, leí ese pintoresco documento de otra época, las muchas páginas del riguroso informe de la BBC. pautas En cuanto a la representación de la violencia, conviene recordar qué es lo que está permitido para nuestra emisora nacional: “Cuando se muestra violencia de la vida real”, establecen las directrices, “debemos lograr un equilibrio entre las exigencias de precisión y los peligros de causar una angustia injustificada”. Se debe tener especial cuidado editorial con “la violencia que pueda reflejar una experiencia personal, por ejemplo, la violencia doméstica, las peleas en los bares, el vandalismo en el fútbol”, y “debemos asegurarnos de que la violencia verbal o física que los niños puedan imitar fácilmente… no se transmita en programas anteriores a la cuenca hidrográfica”.
Por supuesto, no hay un punto de inflexión en las redes sociales. Ni en ningún esfuerzo, en la búsqueda de clics anónimos, por lograr un equilibrio entre la precisión y la angustia. Todo lo contrario. Canales enteros de YouTube y cuentas X con cientos de miles de seguidores se dedican a proporcionar un flujo constante y diario de las peleas de pandillas, peleas escolares y furia al volante más gráficas de todo el mundo. Una de las primeras cosas que Elon Musk promovió cuando compró Twitter, después de despedir a la mayoría de sus moderadores, fue una función que permitía a los usuarios deslizar hacia arriba para ver una foto. transmisión automática de contenido de video. Fue inundado con quejas de personas que se vieron inadvertidamente confrontadas con escenas de palizas y asesinatos.
Un par de años después, si usted mostró interés en los acontecimientos de la semana pasada, probablemente encontraría su cronología inmediatamente llena de los fragmentos de violencia más perturbadores, incluida una pelea a machete no relacionada en Southend, enmarcada en los términos más incendiarios por agitadores políticos (entre ellos el propio Musk, que parecía decidido a promover la idea de una “guerra civil” británica a sus 193 millones de seguidores).
Hay una razón por la que, en los medios de difusión regulados de forma independiente, se exige que las imágenes y películas de tales acontecimientos se contextualicen y pixelen, y se viertan en las noticias poco a poco. Más que miles de palabras de informes, esas imágenes saturan nuestra imaginación. El flujo no regulado de ellas, elegidas por su naturaleza gráfica, compartidas para indignar o reír a carcajadas, tiene consecuencias que no sorprenden a quienes han estudiado el tema más de cerca.
La Dra. Kaitlyn Regehr es coautora de un estudio a gran escala, Safer Scrolling, publicado Este año, se ha centrado en cómo las redes sociales “gamifican” el odio y la misoginia entre los jóvenes. Sugiere: “El hecho es que las empresas de redes sociales se dedican a vender atención. Ha habido numerosos denunciantes que han salido de estas empresas y también investigaciones, incluidas las mías, que apuntan al hecho de que los algoritmos priorizan el daño y la desinformación porque son mucho más emocionantes y llaman más la atención que la verdad”.
Keir Starmer ha hablado en los últimos días sobre cómo la próxima Ley de Seguridad en Internet, que entrará en vigor el año que viene, puede necesitar un refuerzo a la luz de los acontecimientos de la semana pasada. Regehr, que asesoró sobre la legislación, no tiene ninguna duda: “No se trata de una discusión sobre la libertad de expresión. Estamos hablando de la forma en que el contenido se distribuye, alimenta y prioriza mediante algoritmos. Hay millones y millones de publicaciones, y el algoritmo decide las 100 que vemos”. Los reguladores, sugiere, como mínimo necesitan entender cómo funcionan esos algoritmos.
Regehr coincide en que, en este contexto, sería valioso tomar nota de los últimos feeds de las redes sociales de los condenados por violencia racista la semana pasada, para ver los patrones de lo que estaban viendo. “Necesitamos dejar más claro ese vínculo a los legisladores y al público en general”, dice, para que “se pueda entender como un problema mucho más generalizado y sistémico, que creo que está llegando a una crisis existencial”.
En general, se dice que el foco de esta crisis es la desinformación deliberada; las investigaciones sugieren que esto descuida un componente crítico: la forma en que esa desinformación se adjunta rutinariamente al contenido de video más gráfico.
Durante los últimos siete años, Shakuntala Banaji, profesora de cultura mediática y cambio social en la London School of Economics, ha trabajado con investigadores que estudian las formas en que compartir videoclips de formato corto ha sido un factor que contribuye a la violencia racial, los linchamientos y los pogromos en todo el mundo. “Vemos muchos TikToks”, dice Banaji. “Hemos visto muchos reels de Instagram. Y todos hemos tenido que ir a terapia después… Es absolutamente degradante y repulsivo”.
El grupo recopila y estudia el efecto de miles de vídeos como los que se difundieron la semana pasada: brutales agresiones callejeras con muy poca contextualización o con una contextualización deliberadamente falsa. El trabajo ha arrojado algunos datos sorprendentes. Uno de ellos es que el público más susceptible a este tipo de contenidos no son los adolescentes y los adultos jóvenes, sino los espectadores de clase media y de mediana edad.
La estrechez deliberada del contexto político es fundamental. “Lo que nos resultó muy interesante fue que en algunos países circulaba el mismo tipo de contenido gráfico, pero no desembocaba en violencia callejera”, afirma Banaji. El componente clave en los lugares donde se produjo la violencia racista, sugiere, fue el encuadre político del material. “En la India, en Myanmar, en el Brasil de Bolsonaro y en el Reino Unido después del Brexit –donde vimos un aumento masivo de los ataques islamófobos– la diferencia crucial no fue la posición que adoptó el gobierno al intentar regular Internet, sino el tono que adoptó hacia los grupos que estaban siendo atacados”.
La investigación de Banaji concluye que existe una “especie de triángulo… que hace que esto sea tan peligroso. Sólo una parte de él es el contenido de los medios. Igual de importante es, en primer lugar, cómo se subtitula y edita la violencia y, en segundo lugar, lo que los medios tradicionales y los políticos dicen sobre ese contenido, tácita o explícitamente”. En estos términos, cree que los intentos de vigilar estas plataformas, en particular por parte de figuras políticas que también buscan usarlas para avivar la división, sólo pueden ser contraproducentes. Cree que una regulación totalmente independiente, aliada con una retórica política que rechaza el racismo y los comentarios incendiarios, lentamente le quita poder a los algoritmos.
Regehr coincide en que estos cambios no pueden llegar lo suficientemente pronto. “Casi todo lo que consumimos, incluida la televisión terrestre, el periodismo legítimo, los alimentos, los fármacos y los medicamentos, está regulado”, afirma. “Sin embargo, las redes sociales siguen siendo un espacio no regulado. Creo que nos escondemos tras la idea de que la tecnología es todavía nueva, que todavía estamos trabajando en ella. Pero la World Wide Web se lanzó hace 30 años. Casi la mitad de la población nunca ha vivido sin ella”.
Las consecuencias, la semana pasada, estuvieron a nuestro alrededor.