El sindicato de la policía federal afirma que las víctimas necesitan un portal para denunciar deepfakes de inteligencia artificial | Inteligencia artificial (IA)
El sindicato de la policía federal ha dicho que se debería establecer un portal único para que las víctimas denuncien a la policía las falsificaciones profundas de IA, lamentando que la policía se haya visto obligada a “improvisar” leyes para acusar a la primera persona que se enfrentó a un proceso por difundir imágenes deepfakes de mujeres el año pasado.
El fiscal general, Mark Dreyfus, presentó en junio una legislación en el Parlamento que creará un nuevo delito penal por compartir, sin consentimiento, imágenes sexualmente explícitas que hayan sido creadas digitalmente utilizando inteligencia artificial u otras formas de tecnología.
La Asociación de Policía de la Federación Australiana (Afpa) apoya el proyecto de ley, argumentando en una presentación ante una investigación parlamentaria que la ley actual es demasiado difícil de usar para los agentes.
Señalaron el caso de un hombre que fue detenido y acusado en octubre del año pasado por supuestamente enviar imágenes deepfake a escuelas y asociaciones deportivas de Brisbane. El comisionado de seguridad electrónica inició por separado un proceso contra el hombre por no haber eliminado “imágenes íntimas” de varios australianos destacados el año pasado de un sitio web de pornografía deepfake.
El hombre recibió una multa de 15.000 dólares como parte del proceso civil por desacato al tribunal. Sus causas penales y civiles siguen en curso, y el caso civil volverá a los tribunales en agosto.
“Debido a los recursos limitados y a la falta de una legislación específica y directa relacionada con el material sexualmente explícito falsificado, los investigadores se vieron obligados a 'improvisar' delitos para procesarlos”, dijo Afpa. “Se presentaron contra (el hombre) seis cargos más relacionados con 'publicaciones y programas obscenos'”.
La organización sin fines de lucro de defensa de las libertades en Internet Electronic Frontiers Australia dijo a Guardian Australia en mayo que el parlamento no debería apresurarse a otorgar nuevos poderes a la policía hasta que este caso haya determinado si los poderes actuales son adecuados.
Afpa dijo que el método eSafety para presentar una demanda civil también tenía desventajas porque es costoso y había una “buena probabilidad” de que el infractor fuera una persona “de bajos ingresos y pocos activos” que, por lo tanto, es “efectivamente inmune a los procedimientos civiles”. Si pueden averiguar quién creó la imagen, claro está.
“Con frecuencia es imposible determinar quién distribuyó las imágenes; por lo general, los infractores son muy expertos en tecnología y en ocultar sus huellas para evitar ser procesados”.
Afpa dijo que a menudo es difícil para la policía determinar quién es la víctima, si es una persona real y dónde se encuentra, lo que significa que las investigaciones de deepfake pueden llevar “incontables horas”.
“Con el aumento de la creación de material de explotación infantil mediante deepfake, el papel de las fuerzas del orden y la identificación de una víctima se está volviendo exponencialmente más difícil”, dijo el sindicato. “¿Cuánto tiempo pasan los investigadores tratando de encontrar a un niño que posiblemente ni siquiera existe o cuya imagen fue robada pero que, en última instancia, no ha sido abusado?”
También es difícil determinar dónde se creó la imagen por primera vez, dijo Afpa, señalando que las personas a menudo usan conexiones de redes privadas virtuales (VPN) para ocultar su ubicación.
Si bien actualmente las víctimas pueden informar al comisionado de seguridad electrónica cuando una imagen, real o no, de ellas ha sido compartida en línea sin su consentimiento, Afpa dijo que este modelo debería revisarse para permitir que las víctimas informen directamente a las autoridades.
Afpa propuso que el Centro Australiano para Contrarrestar la Explotación Infantil, dirigido por la AFP, podría evaluar los informes iniciales y luego compartirlos con la fuerza policial del estado o territorio pertinente para una mayor investigación.
Esto también ayudaría a las víctimas a denunciar los casos, añadió el sindicato, porque a muchas les resulta traumático y difícil entrar en una comisaría con imágenes sexualmente explícitas para denunciarlo a la policía.
Afpa argumentó que la legislación debería ir acompañada de una campaña educativa para reducir el estigma en torno a las denuncias y educar al público sobre las deepfakes, además del portal de denuncias.
El comité celebrará su primera audiencia sobre la legislación la próxima semana.