TechScape: Por qué la agitación de Musk muestra los límites de las leyes sobre redes sociales | Tecnología

0 0

¿Qué puede hacer el gobierno del Reino Unido con respecto a Twitter? debería ¿Qué tiene que ver Twitter? ¿Y qué le importa a Elon Musk?

El multimillonario propietario de la red social, que todavía se conoce oficialmente como X, ha tenido una semana divertida provocando disturbios en su plataforma. Aparte de sus propias publicaciones, una mezcla de memes de bajo esfuerzo que parecen sacados directamente de 8chan y reposts falsamente preocupados de personalidades de extrema derecha, la plataforma en general se convirtió brevemente en una parte crucial de la organización del desorden, junto con las otras dos de las tres T: TikTok y Telegram.

Todo el mundo está de acuerdo en que se debe hacer algo. Bruce Daisley, ex vicepresidente de Twitter para EMEA, sugiere una responsabilidad personal:

A corto plazo, a Musk y a sus colegas ejecutivos se les debe recordar la responsabilidad penal que tienen por sus acciones según las leyes vigentes. La Ley de Seguridad en Internet de Gran Bretaña de 2023 debe reforzarse con efecto inmediato. El ministro Keir Starmer y su equipo deberían reflexionar sobre si Ofcom –el regulador de los medios de comunicación que parece verse continuamente cuestionado por la producción y el comportamiento de medios como GB News– está en condiciones de lidiar con las acciones vertiginosas de gente como Musk. En mi experiencia, esa amenaza de sanción personal es mucho más eficaz para los ejecutivos que el riesgo de multas corporativas. Si Musk siguiera provocando disturbios, una orden de arresto contra él podría hacer que se le escaparan fuegos artificiales de la mano, pero como jet-set internacional tendría el efecto de centrar su mente.

La semana pasada, el alcalde de Londres, Sadiq Khan, presentó su propia propuesta:

“Creo que el gobierno se ha dado cuenta rápidamente de que es necesario modificar la Ley de Seguridad en Internet”, afirmó Khan en una entrevista con The Guardian. “Creo que lo que el gobierno debería hacer rápidamente es comprobar si es adecuada para su propósito. Creo que no lo es”.

Khan dijo que había “cosas que las plataformas de redes sociales responsables podrían hacer”, pero agregó: “Si no arreglan sus propias cosas, vendrá la regulación”.

Ewan McGaughey, profesor de Derecho en el King's College de Londres, me hizo una sugerencia más específica sobre lo que podría hacer el gobierno cuando hablé con él el lunes. La Ley de Comunicaciones de 2003 sustenta gran parte de los poderes de Ofcom, dice, y se utiliza para regular la radio y la televisión en directo. Pero el texto de la ley no la limita sólo a esos medios:

Si sólo miramos el Ofcom puede actuar por sí sola, pero tiene el poder de regular el contenido de los medios de comunicación en línea, porque la sección 232 dice que un “servicio de contenido de televisión sujeto a licencia” incluye la distribución “por cualquier medio que implique el uso de una red de comunicaciones electrónicas”. Ofcom podría optar por hacer valer sus poderes, pero es muy poco probable porque sabe que se enfrentaría a los desafíos de las empresas tecnológicas, incluidas las que alimentan los disturbios y las teorías conspirativas.

Incluso si Ofcom o el gobierno no estuvieran dispuestos a reinterpretar la antigua ley, agregó, solo se necesitaría un cambio simple para poner a Twitter bajo la égida mucho más estricta de los controles de transmisión:

No hay diferencia, por ejemplo, entre que Elon Musk publique videos en X sobre la llamada policía de dos niveles, o publicaciones sobre “campos de detención”, o que “la guerra civil es inevitable”, y que ITV o Sky o la BBC transmitan noticias… La Ley de Seguridad en Línea es completamente inadecuado, ya que sólo está escrito para detener el contenido “ilegal”, que por sí mismo no incluye declaraciones que sean erróneas o incluso peligrosas.

La Ley de Cumplir tus Promesas

La policía de Middlesbrough respondió a los alborotadores este mes, quienes se habían sentido alentados por publicaciones en las redes sociales. Fotografía: Gary Calton/The Observer

Resulta extraño sentir pena por un objeto inanimado, pero me pregunto si la Ley de Seguridad en Internet está recibiendo un trato un tanto duro, ya que apenas está en vigor. La ley, una gigantesca pieza legislativa con más de 200 cláusulas independientes, se aprobó en 2023, pero la mayor parte de sus cambios solo tendrán vigencia una vez que Ofcom complete un laborioso proceso de consulta y creación de un código de conducta.

Mientras tanto, la ley sólo ofrece un puñado de nuevos delitos penales, entre los que se incluyen la prohibición de exhibir contenido sexual en línea y de subirse a la falda de una mujer. Dos de los nuevos delitos han sido puestos a prueba esta semana, después de que partes del antiguo delito de comunicaciones maliciosas se sustituyeran por delitos más específicos de amenazas y comunicaciones falsas.

Pero ¿qué habría pasado si todo hubiera ido más rápido y Ofcom hubiera estado en funcionamiento? ¿Habría cambiado algo?

La Ley de Seguridad en Línea es una pieza legislativa curiosa: un intento de controlar los peores impulsos de Internet, escrita por un gobierno que al mismo tiempo intentaba posicionarse como el bando pro libertad de expresión en una creciente guerra cultural, y aplicada por un regulador que enfáticamente no quería terminar emitiendo fallos sobre publicaciones individuales en las redes sociales.

El resultado podría describirse como un elegante intento de enhebrar una aguja o como un chapucero desgarbado, según a quién se le pregunte. La Ley de Seguridad en Internet no hace ilegal nada en la red, sino que impone a las empresas de redes sociales la obligación de tener códigos de conducta específicos y aplicarlos de manera sistemática. En el caso de algunos tipos de daños, como las autolesiones, el abuso racial o la incitación al odio racial, los servicios más importantes tienen el deber de ofrecer al menos a los adultos la opción de no ver ese contenido y de impedir que los niños lo vean. En el caso de los materiales ilegales, desde imágenes de abuso infantil hasta comunicaciones amenazantes o falsas, se requieren nuevas evaluaciones de riesgos para garantizar que las empresas estén trabajando activamente para combatirlos.

Es fácil entender por qué la ley provocó un encogimiento de hombros tan enorme cuando se aprobó. Su principal resultado es una nueva montaña de papeleo, que exige que las redes sociales demuestren que están haciendo lo que ya hacían: tratar de moderar el abuso racista, tratar de abordar las imágenes de abuso infantil y tratar de hacer cumplir sus términos de servicio.

Saltar la promoción del boletín informativo

La defensa de la ley es que funciona menos como una pieza legislativa para obligar a las empresas a comportarse de manera diferente, y más como algo que permite a Ofcom golpearlas en la cabeza con sus propias promesas. La forma más fácil de recibir una multa en virtud de la Ley de Seguridad en Línea (y, siguiendo el ejemplo del RGPD, esas multas pueden representar un sustancioso 10% de la facturación global) es insistir en voz alta a sus clientes que está haciendo algo para abordar un problema en su plataforma y luego no hacer nada.

Piénselo de esta manera: la mayor parte de la ley está diseñada para abordar al enemigo hipotético de un director ejecutivo de tecnología que se pone de pie en una investigación y entona solemnemente que el comportamiento horrible que están viendo va en contra de los términos de su servicio, antes de regresar a la oficina y no hacer nada en absoluto sobre el problema.

El problema para Ofcom es que, bueno, las redes sociales multinacionales en realidad no están dirigidas por villanos de dibujos animados que ignoran a sus departamentos legales, anulan a sus moderadores e insisten alegremente en imponer unos términos de servicio para sus amigos y otros diferentes para sus enemigos.

Excepto uno.

Haz lo que digo, no lo que hago.

Twitter, bajo el mando de Elon Musk, se ha convertido en el caso de prueba perfecto para la Ley de Seguridad en Internet. En el papel, la red social es una red relativamente normal. Tiene unas condiciones de servicio que bloquean prácticamente la misma variedad de contenidos que otras grandes redes, aunque son ligeramente más permisivas en lo que respecta al contenido pornográfico. Tiene un equipo de moderación que utiliza una combinación de moderación automática y humana para eliminar el contenido objetable, ofrece un proceso de apelación para quienes piensan que han sido tratados injustamente y reparte ataques crecientes que, en última instancia, conducen a la prohibición de cuentas por infracción.

Pero hay otro nivel en el funcionamiento de Twitter: lo que dice Elon Musk, se hace. Por dar solo un ejemplo: el verano pasado, un popular influencer de derecha Imágenes republicadas de abuso infantil que le valió a su creador 129 años de prisión. No quedó claro cuál fue su motivación para hacerlo, pero la cuenta recibió una suspensión instantánea. Entonces Musk intervino:

Solo las personas de nuestro equipo de CSE han visto esas imágenes. Por ahora, eliminaremos esas publicaciones y restableceremos la cuenta.

— Elon Musk (@elonmusk) 26 de julio de 2023

En teoría, las condiciones de servicio de Twitter probablemente prohíban muchas de las peores publicaciones relacionadas con los disturbios en Gran Bretaña. Se prohíbe la “conducta de odio”, así como “incitar, glorificar o expresar el deseo de violencia”. En la práctica, parece que las reglas se aplican de manera inconsistente. Y ese es el punto en el que Ofcom podría empezar a ser muy insistente con Musk y la empresa que posee.

Si desea leer la versión completa del boletín suscríbase para recibir TechScape en su bandeja de entrada todos los martes.


Fuente

Deja un comentario