Meta tiene problemas con la moderación en hebreo, según un ex empleado y documentos internos | Meta
Meta está teniendo dificultades para moderar el contenido relacionado con la guerra entre Israel y Palestina, particularmente en hebreo, a pesar de los recientes cambios en las políticas internas, según revelaron nuevos documentos.
Las directrices de política interna compartidas con The Guardian por un ex empleado de Meta que trabajó en la moderación de contenidos describen un proceso de múltiples capas para moderar el contenido relacionado con el conflicto. Pero los documentos indican que Meta, propietaria de las plataformas Facebook, Instagram y WhatsApp, no cuenta con los mismos procesos establecidos para medir la precisión de la moderación del contenido hebreo y del contenido árabe.
El empleado, cuyo nombre The Guardian no revela debido a temores creíbles de represalias profesionales, dice que las políticas de Meta que rigen el discurso de odio en lo que respecta a Palestina son inequitativas, una evaluación compartida por los defensores palestinos.
También dijeron que algunos trabajadores en la primera línea de la actual batalla de información en torno al conflicto se sienten cautelosos a la hora de plantear sus preocupaciones por temor a represalias y acusaciones. se hizo eco En una carta reciente firmada por más de 200 trabajadores de Meta, el ex empleado dijo que esas condiciones dan la impresión de que las prioridades de la empresa “no son realmente garantizar que el contenido sea seguro para la comunidad”.
Los documentos, actualizados a partir de esta primavera, llegan en un momento en que Meta y otras plataformas sociales han enfrentado críticas por su enfoque del conflicto divisivo, donde las opciones de lenguaje y moderación durante eventos noticiosos de rápida evolución pueden tener consecuencias nefastas. En junio, una coalición de 49 organizaciones de la sociedad civil y varios palestinos prominentes enviaron a Meta una carta acusando a la empresa de “ayudar e incitar a los gobiernos a cometer genocidio” a través de sus políticas de moderación de contenido.
“Cuando se silencian las voces palestinas en las plataformas Meta, esto tiene consecuencias muy directas para las vidas palestinas”, dijo Cat Knarr, de la Campaña Estadounidense por los Derechos Palestinos, que organizó la carta. “La gente no se entera de lo que está sucediendo en Palestina, pero sí escucha propaganda que deshumaniza a los palestinos. Las consecuencias son muy peligrosas y muy reales”.
La disparidad en la moderación de contenidos por idioma es una crítica de larga data a Meta, ya que la denunciante de Facebook Frances Haugen declaró ante un comité del Senado de Estados Unidos que, si bien solo el 9% de los usuarios del gigante de las redes sociales eran angloparlantes, el 87% de su gasto en desinformación estaba dedicado a esa categoría.
Los documentos de orientación sobre el contenido, que se publicaron después del ataque del 7 de octubre a Israel por parte de Hamás y la guerra en Gaza, arrojan luz sobre una variedad de decisiones de política de moderación en Meta.
Entre ellas se encuentran las políticas de la empresa sobre el discurso de odio y el movimiento de boicot. Las políticas exigen la eliminación de las frases “boicotear las tiendas judías” y “boicotear las tiendas musulmanas”, pero permiten la frase “boicotear las tiendas árabes”, según documentos internos.
Tracy Clayton, portavoz de Meta, dijo que “en el contexto y mientras dure esta crisis”, la política de Meta es eliminar los llamados a un boicot basado únicamente en la religión, pero permitir los llamados a boicotear empresas “basados en características protegidas como la nacionalidad”, ya que generalmente están “asociados con el discurso político o pensados como una forma de protesta contra un gobierno en particular”.
En este sentido, el portavoz afirmó que se permiten las frases “boicotear los comercios israelíes” o “boicotear los comercios árabes”. La política, tal como se describe en los documentos internos, es más específica y establece que se permite una frase como “no se debe permitir la entrada de productos israelíes hasta que dejen de cometer crímenes de guerra”, así como “boicotear los comercios árabes”.
Esta política subraya que Meta “no tiene una comprensión matizada ni precisa de la región”, argumentó Nadim Nashif, fundador y director de 7amleh, una organización sin fines de lucro que aboga por los derechos digitales palestinos.
“La identidad árabe está formada por personas de toda la región y de muchos países diferentes, mientras que la identidad israelí está formada por individuos de un solo Estado-nación que ocupa y oprime a los palestinos, como un subconjunto de la población árabe”, afirmó. “El enfoque de Meta muestra inherentemente un sesgo hacia Israel por esta razón”.
Medición de la eficacia de la moderación del discurso de odio en hebreo
Los documentos recientes también ofrecen una nueva ventana a la capacidad de Meta para medir la calidad de su propia moderación de contenidos en árabe y en hebreo.
Meta cuenta con un sistema para hacer un seguimiento de la “precisión de las políticas” de aplicación de contenido en muchos idiomas. Esto significa que el sistema de calidad de la empresa (que utiliza expertos humanos) revisa el trabajo de los moderadores y sistemas de primera línea y califica el grado de alineamiento de las decisiones tomadas por esos moderadores y sistemas con las políticas de Meta sobre lo que está y no está permitido en Facebook e Instagram. El programa de medición de calidad luego genera una puntuación de precisión que rastrea el desempeño de la moderación de contenido en las distintas plataformas, según los documentos y el ex empleado.
El sistema de revisión está en marcha para idiomas como inglés, español, árabe y tailandés. Pero para una parte de las decisiones sobre contenido en hebreo, dicha puntuación se declaró “inviable” debido a la “ausencia de traducción”, según muestran los documentos. El ex empleado dijo que esto se debía a la falta de revisores humanos con experiencia en el idioma hebreo.
Meta dice que tiene “múltiples sistemas implementados” para medir la precisión de la aplicación de la moderación de contenido en idioma hebreo, incluida la evaluación por parte de revisores y auditores de habla hebrea.
Sin embargo, los documentos muestran que no existe una medida de “precisión de políticas” para la aplicación de la normativa en idioma hebreo, y el ex empleado dijo que, debido a que el hebreo no está incorporado al sistema, este tipo de revisión de aplicación en el mercado hebreo se realiza de forma “ad hoc”, a diferencia del mercado árabe.
Esa discrepancia significa que la empresa revisa el contenido en el idioma oficial de Israel de manera menos sistemática que el de Palestina, dijo el ex empleado. La diferencia implica “un sesgo en la forma en que están haciendo cumplir el contenido”, lo que podría llevar a una aplicación excesiva del contenido en árabe, agregó.
El hebreo, hablado por aproximadamente 10 millones de personas, representa una fracción mucho menor de las publicaciones en las redes sociales de Meta que el árabe, hablado por unos 400 millones de personas. Los críticos dicen que debido a la guerra en curso, se necesita más atención al contenido en hebreo, y Meta ha enfrentado preguntas sobre su moderación de publicaciones en hebreo anteriormente. Un análisis independiente de 2022 encargado por el gigante tecnológico concluyó que su sistema de moderación había penalizado a los hablantes de árabe con más frecuencia que a los hablantes de hebreo. Una época de tensiones intensificadas en 2021, el conflicto entre Israel y Palestina en 2021, incluso teniendo en cuenta la disparidad en el número de hablantes. Los sistemas de Meta marcaron automáticamente el contenido en árabe a una tasa “significativamente mayor” que el contenido en hebreo, según el análisis. Las políticas de la empresa “pueden haber resultado en un sesgo involuntario a través de una mayor aplicación excesiva del contenido árabe en comparación con el contenido hebreo”, se lee en el informe.
La disparidad se atribuyó en parte al hecho de que Meta, en ese momento, había puesto en marcha un “clasificador de lenguaje hostil” en árabe, que permitía la detección automática de contenido ofensivo (como el discurso de odio y los llamamientos a la violencia), pero no había hecho lo mismo con el contenido en hebreo. Dichos clasificadores permiten eliminar automáticamente el lenguaje ofensivo. La falta de un clasificador en hebreo significaba que era probable que el contenido en árabe se eliminara algorítmicamente con mayor frecuencia, según el análisis. En respuesta al informe, Meta lanzó un clasificador de aprendizaje automático en hebreo que detecta el “discurso hostil”. Un estudio más reciente de Human Rights Watch, publicado en diciembre de 2023, presunto “censura sistémica de contenidos palestinos en Instagram y Facebook”.
Los organismos de control de Meta dicen que los nuevos documentos revisados por The Guardian muestran que, incluso con los nuevos clasificadores del idioma hebreo, hay menos esfuerzos para garantizar que las medidas más recientes sean efectivas, lo que permite que tales disparidades en la aplicación persistan.
“Este informe demuestra que Meta no se toma en serio sus responsabilidades de moderación de contenidos”, dijo Nashif de 7amleh.
Clasificación algorítmica del discurso de odio
Además de los clasificadores de discursos hostiles y otros indicadores, Meta utiliza colecciones de imágenes, frases y vídeos que permiten a sus herramientas de aprendizaje automático marcar y eliminar automáticamente las publicaciones que violan sus políticas. Los moderadores algorítmicos hacen coincidir el contenido publicado en las redes sociales con el material de los bancos de contenido que previamente se ha considerado que infringe las reglas de Meta.
El ex empleado dijo que sus colegas habían notado que varias imágenes que se estaban utilizando en un banco creado después de los eventos del 7 de octubre se agregaron por error, pero que “no había ningún proceso” para eliminar imágenes de ese banco, lo que nuevamente condujo a una posible aplicación excesiva de contenido relacionado con ambos lados del conflicto entre Israel y Palestina.
Meta cuestionó esta caracterización, afirmando que era “relativamente fácil eliminar un elemento de un banco si se agregaba por error”. Sin embargo, los documentos establecen que en ese momento “no existía un proceso actual para eliminar grupos que no violaban las normas después de que se hicieran llamados a políticas que hicieran que el contenido previamente almacenado fuera benigno”, lo que llevó a una “aplicación excesiva” del contenido.
El ex empleado dijo que Meta ha respondido a las quejas de los trabajadores de moderación de contenido en el pasado. Sin embargo, muchos empleados han expresado “miedo a las represalias” o a ser vistos como antisemitas si alguien presentara una queja sobre la aplicación excesiva de contenido pro-Palestina en árabe, a pesar de la historia de la empresa, dijeron.
“Si planteara esto directamente, siento que mi trabajo estaría en juego; es muy obvio la postura de la empresa sobre este tema”, dijo el trabajador.
En una carta abierta, más de 200 empleados de Meta expresaron inquietudes similares y escribieron que Meta “censuró, despreció y/o penalizó” a los trabajadores que se manifestaron en contra de las políticas de la empresa relacionadas con Palestina en foros internos. Los trabajadores dijeron que “cualquier mención a Palestina es eliminada” de estos foros.
Clayton, el portavoz de Meta, dijo que la empresa ofrecía “muchos canales establecidos” para que los empleados plantearan sus inquietudes y afirmó que Meta había trabajado para garantizar que el contenido de sus plataformas fuera seguro para los usuarios, incluidos 20.000 millones de dólares invertidos en “seguridad” desde 2016 y 40.000 personas trabajando en el espacio. Meta publicó Ingresos del año completo para 2023 fue de 134.900 millones de dólares. En su informe de ganancias más reciente, al corriente ingresos totales de $ 39.07 mil millones para el segundo trimestre de 2024.
Además de la carta entregada recientemente por los empleados de Meta, la empresa recibió en junio una petición separada de la Campaña Estadounidense por los Derechos Palestinos, una organización de defensa de los derechos de Palestina, y otras 49 organizaciones de la sociedad civil. Los grupos exigieron que se pusiera fin a lo que, según ellos, es la censura de contenidos propalestinos, la falta de transparencia en torno a las políticas de moderación y la permisividad hacia el discurso de odio contra Palestina en las redes sociales de Meta.
A fines de 2023, la senadora de Massachusetts Elizabeth Warren envió una carta a Meta solicitando más información sobre las políticas de la empresa en torno al conflicto y cómo se aplican, preguntando específicamente si la empresa ha marcado automáticamente contenido relacionado con ciertos temas a lo largo del tiempo y cuándo lo ha hecho. La carta enviada en junio a Meta por casi 50 organizaciones de la sociedad civil apunta a la empresa de redes sociales por problemas similares.
En respuesta a la reciente carta de los empleados, Clayton dijo que Meta “se toma muy en serio las acusaciones de tener políticas de cumplimiento de contenidos que afectan desproporcionadamente las voces pro palestinas”.
“Nuestro objetivo ha sido –y sigue siendo– dar voz a todo el mundo y ayudar a garantizar que nuestras plataformas sigan siendo espacios seguros para quienes las utilizan”, afirmó.