Imágenes de abuso sexual infantil generadas por IA alcanzan un “punto de inflexión”, dice organismo de control | Inteligencia artificial (IA)
Las imágenes de abuso sexual infantil generadas por herramientas de inteligencia artificial son cada vez más frecuentes en la web abierta y están alcanzando un “punto de inflexión”, según un organismo de vigilancia de la seguridad.
El Fundación de vigilancia de Internet dijo que la cantidad de contenido ilegal creado por IA que había visto en línea durante los últimos seis meses ya había superado el total del año anterior.
La organización, que gestiona una línea directa en el Reino Unido pero también tiene competencias globales, dijo que casi todo el contenido se encontró en áreas de Internet disponibles públicamente y no en la web oscura, a la que se debe acceder mediante navegadores especializados.
El director ejecutivo interino de la IWF, Derek Ray-Hill, dijo que el nivel de sofisticación de las imágenes indicaba que las herramientas de inteligencia artificial utilizadas habían sido entrenadas con imágenes y videos de víctimas reales. “Los últimos meses muestran que este problema no va a desaparecer y, de hecho, está empeorando”, afirmó.
Según un analista de la IWF, la situación con el contenido generado por IA estaba llegando a un “punto de inflexión” en el que los organismos de seguridad y las autoridades no sabían si una imagen involucraba a un niño real que necesitaba ayuda.
La IWF tomó medidas contra 74 informes de material de abuso sexual infantil (CSAM) generado por IA, que era lo suficientemente realista como para violar la ley del Reino Unido, en los seis meses hasta septiembre de este año, en comparación con 70 en los 12 meses hasta marzo. Un único informe podría hacer referencia a una página web que contenga varias imágenes.
Además de las imágenes de IA que mostraban víctimas de abuso en la vida real, los tipos de material vistos por la IWF incluían vídeos “deepfake” en los que se había manipulado pornografía para adultos para que pareciera CSAM. En informes anteriores, la IWF ha dicho que se estaba utilizando IA para crear imágenes de celebridades a las que se les había “envejecido” y luego se las había representado como niños en escenarios de abuso sexual. Otros ejemplos de CSAM vistos han incluido material en el que se han utilizado herramientas de inteligencia artificial para “desnudar” imágenes de niños vestidos encontradas en línea.
Más de la mitad del contenido generado por IA señalado por la IWF durante los últimos seis meses está alojado en servidores en Rusia y Estados Unidos, y Japón y los Países Bajos también albergan cantidades significativas. Las direcciones de las páginas web que contienen las imágenes se cargan en una lista de URL de la IWF que se comparte con la industria tecnológica para que puedan bloquearse y volverse inaccesibles.
La IWF dijo que ocho de cada 10 informes de imágenes ilegales creadas por IA procedían de miembros del público que las habían encontrado en sitios públicos como foros o galerías de IA.
Mientras tanto, Instagram ha anunciado nuevas medidas para contrarrestar la sextorsión, en la que se engaña a los usuarios para que envíen imágenes íntimas a delincuentes, normalmente haciéndose pasar por mujeres jóvenes, y luego se los somete a amenazas de chantaje.
La plataforma implementará una función que difumina las imágenes de desnudos que se envían a los usuarios en mensajes directos y les insta a tener cuidado al enviar cualquier mensaje directo (DM) que contenga una imagen de desnudos. Una vez que se recibe una imagen borrosa, el usuario puede elegir si desea verla o no, y también recibirá un mensaje recordándole que tiene la opción de bloquear al remitente y reportar el chat a Instagram.
La función se activará de forma predeterminada para las cuentas de adolescentes en todo el mundo a partir de esta semana y se puede utilizar en mensajes cifrados, aunque las imágenes marcadas por la función “detección en el dispositivo” no se notificarán automáticamente a la plataforma ni a las autoridades.
Será una función voluntaria para adultos. Instagram también ocultará las listas de seguidores y seguidores de posibles estafadores de sextorsión que son conocidos por amenazar con enviar imágenes íntimas a esas cuentas.