La nueva función iMessage permite a los niños denunciar desnudos a Apple | Manzana
Apple está introduciendo una nueva función en iMessage en Australia que permitirá a los niños denunciar imágenes y vídeos de desnudos que se les envíen directamente a la empresa, que luego podría denunciar los mensajes a la policía.
El cambio se produce como parte de los lanzamientos beta del jueves de las nuevas versiones de los sistemas operativos de Apple para usuarios australianos. Es una extensión de las medidas de seguridad de las comunicaciones que se han activado de forma predeterminada desde iOS 17 para usuarios de Apple menores de 13 años, pero que están disponibles para todos los usuarios. Según las funciones de seguridad existentes, un iPhone detecta automáticamente imágenes y videos que contienen desnudos que los niños pueden recibir o intentar enviar en iMessage, AirDrop, FaceTime y Photos. La detección ocurre en dispositivos para proteger la privacidad.
Si se detecta una imagen sensible, al joven usuario se le muestran dos pantallas de intervención antes de que pueda continuar y se le ofrecen recursos o una forma de contactar a un padre o tutor.
Con la nueva característica, cuando aparezca la advertencia, los usuarios también tendrán la opción de reportar las imágenes y videos a Apple.
El dispositivo preparará un informe que contiene las imágenes o vídeos, así como los mensajes enviados inmediatamente antes y después de la imagen o vídeo. Incluirá la información de contacto de ambas cuentas y los usuarios podrán completar un formulario que describa lo sucedido.
El informe será revisado por Apple, que puede tomar medidas sobre una cuenta, como deshabilitar la capacidad de ese usuario para enviar mensajes a través de iMessage, y también informar el problema a las autoridades.
Apple dijo que el plan sería implementar inicialmente la función en Australia en la última actualización beta, pero que se lanzaría a nivel mundial en el futuro.
El momento del anuncio y la elección de Australia como la primera región en obtener la nueva función coincide con la entrada en vigor de nuevos códigos. Para fines de 2024, las empresas de tecnología deberán controlar el contenido de terrorismo y abuso infantil en la nube y los servicios de mensajería que operan en Australia.
Apple había advertido que el borrador del código no protegería el cifrado de extremo a extremo y dejaría las comunicaciones de todos los que utilizan los servicios vulnerables a la vigilancia masiva. El comisionado australiano de eSafety finalmente diluyó la ley, permitiendo a las empresas que creen que rompería el cifrado de extremo a extremo demostrar acciones alternativas para abordar el contenido de terrorismo y abuso infantil que tomarían en su lugar.
Apple se ha enfrentado a fuertes críticas por parte de reguladores y autoridades policiales de todo el mundo por su renuencia a comprometer el cifrado de extremo a extremo en iMessage con fines policiales. Apple abandonó sus planes de escanear fotos y vídeos almacenados en su producto iCloud en busca de material de abuso sexual infantil (CSAM) a finales de 2022, lo que provocó más reprimendas. Apple, WhatsApp y otros defensores del cifrado dicen que cualquier puerta trasera al cifrado pone en peligro la privacidad de los usuarios a nivel mundial.
La Sociedad Nacional para la Prevención de la Crueldad contra los Niños (NSPCC) del Reino Unido acusó a Apple de subestimar enormemente la frecuencia con la que aparece CSAM en sus productos, reveló The Guardian en julio.
En 2023, Apple presentó solo 267 informes de sospecha de CSAM en sus plataformas en todo el mundo al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una cantidad muy inferior en comparación con otros gigantes tecnológicos de la industria; Google informó más de 1,47 millones y Meta reportando más de 30,6 millones, según el informe anual del NCMEC.