El organismo de control británico acusa a Apple de no informar sobre imágenes sexuales de niños | Apple

0 0

Apple no está monitoreando eficazmente sus plataformas ni buscando imágenes y videos de abuso sexual infantil, según denuncian expertos en seguridad infantil, lo que genera inquietudes sobre cómo la compañía puede manejar el crecimiento del volumen de ese material asociado con la inteligencia artificial.

La Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) del Reino Unido acusa a Apple de no registrar con precisión la frecuencia con la que aparece material de abuso sexual infantil (CSAM) en sus productos. En un año, los depredadores de menores utilizaron iCloud, iMessage y Facetime de Apple para almacenar e intercambiar CSAM en un número mayor de casos solo en Inglaterra y Gales que los que la compañía informó en todos los demás países juntos, según datos policiales obtenidos por la NSPCC.

A través de datos recopilados a través de solicitudes de libertad de información y compartidos exclusivamente con The Guardian, la organización benéfica para niños descubrió que Apple estaba implicada en 337 delitos registrados de imágenes de abuso infantil entre abril de 2022 y marzo de 2023 en Inglaterra y Gales. En 2023, Apple presentó solo 267 informes de presunto CSAM en sus plataformas en todo el mundo al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), lo que contrasta marcadamente con sus pares de grandes tecnologías, con Google informando más de 1,47 millones y Meta informando más de 30,6 millones, según el NCMEC. reporte anual.

Todas las empresas tecnológicas con sede en Estados Unidos tienen la obligación de informar al NCMEC de todos los casos de abuso sexual infantil que detecten en sus plataformas. La organización, con sede en Virginia, actúa como centro de intercambio de informes de abuso infantil de todo el mundo, revisándolos y enviándolos a las agencias policiales pertinentes. iMessage es un servicio de mensajería encriptado, lo que significa que Apple no puede ver el contenido de los mensajes de los usuarios, pero tampoco lo puede hacer WhatsApp de Meta, que presentó aproximadamente 1,4 millones de informes de presuntos casos de abuso sexual infantil al NCMEC en 2023.

“Existe una discrepancia preocupante entre el número de delitos con imágenes de abuso infantil que se producen en los servicios de Apple en el Reino Unido y el número casi insignificante de denuncias globales de contenido abusivo que hacen a las autoridades”, dijo Richard Collard, director de políticas de seguridad infantil en línea de la NSPCC. “Apple está claramente por detrás de muchos de sus pares en la lucha contra el abuso sexual infantil, cuando todas las empresas tecnológicas deberían estar invirtiendo en seguridad y preparándose para la implementación de la Ley de Seguridad en Línea en el Reino Unido”.

Apple se negó a hacer comentarios para este artículo. En su lugar, la compañía remitió al Guardian a las declaraciones que hizo en agosto pasado, en las que decía que había decidido no seguir adelante con un programa que escaneara las fotos de iCloud en busca de material de abuso sexual infantil porque, en cambio, eligió un camino que “prioriza la seguridad y la privacidad de (sus) usuarios”.

A finales de 2022, Apple abandonó los planes de lanzar la herramienta de escaneo de fotografías de iCloud. La herramienta de Apple, llamada neuralMatch, habría escaneado las imágenes antes de que se subieran al almacenamiento de fotografías en línea de iCloud y las habría comparado con una base de datos de imágenes de abuso infantil conocidas a través de huellas matemáticas conocidas como valores hash.

Sin embargo, el software fue objeto de críticas por parte de grupos de derechos digitales, que expresaron su preocupación por la posibilidad de que inevitablemente se utilizara para comprometer la privacidad y la seguridad de todos los usuarios de iCloud. Los defensores de la seguridad infantil criticaron la eliminación de la función.

“Apple no detecta el abuso sexual infantil en la mayoría de sus entornos a gran escala, en absoluto”, dijo Sarah Gardner, directora ejecutiva de Heat Initiative, una organización sin fines de lucro de Los Ángeles enfocada en la protección infantil. “Están claramente subdenunciando y no han invertido en equipos de confianza y seguridad para poder manejar esto”.

El anuncio de Apple en junio de que lanzará un sistema de inteligencia artificial, Apple Intelligence, ha sido recibido con alarma por los expertos en seguridad infantil.

“La carrera por implementar la IA de Apple es preocupante, ya que el material de abuso infantil generado por IA pone en riesgo a los niños y afecta la capacidad de la policía para proteger a las víctimas jóvenes, especialmente ahora que Apple ha retrasado la incorporación de tecnología para proteger a los niños”, dijo Collard. Apple dice que el sistema de IA, que se creó en asociación con OpenAI, personalizará las experiencias de los usuarios, automatizará tareas y aumentará la privacidad de los usuarios.

En 2023, el NCMEC recibió más de 4.700 denuncias de abuso sexual infantil generado por IA y ha dicho que espera que la cantidad de denuncias aumente en el futuro. Dado que los modelos de IA capaces de crear abuso sexual infantil han sido entrenados con imágenes de la “vida real” de abuso infantil, las imágenes generadas por IA también están implicadas en la victimización de los niños. The Guardian informó en junio que los depredadores infantiles están utilizando la IA para crear nuevas imágenes de sus víctimas favoritas, lo que exacerba aún más el trauma de los sobrevivientes o las imágenes de abuso infantil.

“La empresa se está adentrando en un territorio que sabemos que podría ser increíblemente perjudicial y peligroso para los niños, sin tener antecedentes de poder manejarlo”, dijo Gardner. “Apple es un agujero negro”.

Fuente

Deja un comentario