La inteligencia artificial supera los esfuerzos para atrapar a los depredadores infantiles, advierten los expertos | Tecnología
El volumen de imágenes sexualmente explícitas de niños generadas por depredadores que utilizan inteligencia artificial está abrumando la capacidad de las fuerzas del orden para identificar y rescatar a víctimas de la vida real, advierten los expertos en seguridad infantil.
Los fiscales y los grupos de protección infantil que trabajan para combatir los delitos contra los niños afirman que las imágenes generadas por inteligencia artificial se han vuelto tan realistas que en algunos casos es difícil determinar si los niños reales han sido sometidos a daños reales para su producción. Un solo modelo de inteligencia artificial puede generar decenas de miles de imágenes nuevas en un corto período de tiempo, y este contenido ha comenzado a inundar tanto la red oscura como la red convencional.
“Estamos empezando a ver informes de imágenes de niños reales, pero que han sido generadas por inteligencia artificial, pero ese niño no fue abusado sexualmente. Pero ahora su rostro está en un niño que fue abusado”, dijo Kristina Korobov, abogada principal del Zero Abuse Project, una organización sin fines de lucro de seguridad infantil con sede en Minnesota. “A veces, reconocemos la ropa de cama o el fondo en un video o imagen, al perpetrador o la serie de la que proviene, pero ahora hay el rostro de otro niño en él”.
Ya se realizan decenas de millones de informes cada año sobre material de abuso sexual infantil (CSAM) real creado y compartido en línea cada año, que los grupos de seguridad y las fuerzas del orden tienen dificultades para investigar.
“Ya nos estamos ahogando en este tipo de cosas”, dijo un fiscal del Departamento de Justicia, que habló bajo condición de anonimato porque no estaba autorizado a hablar públicamente. “Desde una perspectiva de aplicación de la ley, los delitos contra los niños son una de las áreas con más recursos limitados, y habrá una explosión de contenido de inteligencia artificial”.
El año pasado, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) recibió informes sobre depredadores que usaban inteligencia artificial de varias maneras diferentes, como ingresar mensajes de texto para generar imágenes de abuso infantil, alterar archivos previamente cargados para hacerlos sexualmente explícitos y abusivos, y cargar material sexualmente dañino conocido y generar nuevas imágenes basadas en esas imágenes. En algunos informes, los delincuentes recurrieron a chatbots para recibir instrucciones sobre cómo encontrar niños para tener sexo con ellos o hacerles daño.
Los expertos y fiscales están preocupados por los delincuentes que intentan evadir la detección utilizando inteligencia artificial generativa para alterar imágenes de un niño víctima de abuso sexual.
“Al presentar cargos en el sistema federal, la inteligencia artificial no cambia lo que podemos procesar, pero hay muchos estados en los que hay que poder demostrar que se trata de un niño real. Discutir sobre la legitimidad de las imágenes causará problemas en los juicios. Si yo fuera un abogado defensor, eso es exactamente lo que argumentaría”, dijo el fiscal del Departamento de Justicia.
La posesión de representaciones de abuso sexual infantil está tipificada como delito por la ley federal de Estados Unidos, y este año se han llevado a cabo en ese país varios arrestos de presuntos autores de material sexualmente explícito generado por inteligencia artificial. Sin embargo, en la mayoría de los estados no existen leyes que prohíban la posesión de material sexualmente explícito generado por inteligencia artificial que muestre a menores. El acto de crear las imágenes en primer lugar no está contemplado por las leyes existentes.
Sin embargo, en marzo, la legislatura del estado de Washington… aprobó un proyecto de ley Prohibir la posesión de material sexual infantil generado por IA y la divulgación consciente de imágenes íntimas de otras personas generadas por IA. En abril, se presentó en el Congreso un proyecto de ley bipartidista destinado a penalizar la producción de material sexual infantil generado por IA, que ha sido Aprobado por la Asociación Nacional de Fiscales Generales (NAAG).
Los expertos en seguridad infantil advierten que la afluencia de contenido de inteligencia artificial agotará los recursos de CyberTipline del NCMEC, que actúa como centro de intercambio de informes de abuso infantil de todo el mundo. La organización envía estos informes a las agencias de aplicación de la ley para su investigación, después de determinar su ubicación geográfica, estado de prioridad y si ya se conoce a las víctimas.
“La policía tiene ahora que gestionar un mayor volumen de contenidos. ¿Y cómo sabe si se trata de un niño real que necesita ser rescatado? No se sabe. Es un problema enorme”, afirmó Jacques Marcoux, director de investigación y análisis del Centro Canadiense para la Protección de la Infancia.
Las imágenes conocidas de abuso sexual infantil se pueden identificar por las huellas digitales de las imágenes, conocidas como valores hash. El NCMEC mantiene una base de datos de más de cinco millones de valores hash con los que se pueden comparar las imágenes, una herramienta crucial para la aplicación de la ley.
Cuando se carga una imagen conocida de abuso sexual infantil, las empresas de tecnología que ejecutan software para monitorear esta actividad tienen la capacidad de interceptarlas y bloquearlas según su valor hash y denunciar al usuario a las autoridades.
El material que no tiene un valor hash conocido, como el contenido recién creado, es irreconocible para este tipo de software de escaneo. Cualquier edición o alteración de una imagen mediante IA también cambia su valor hash.
“La comparación de hash es la primera línea de defensa”, afirmó Marcoux. “Con la IA, cada imagen generada se considera una imagen completamente nueva y tiene un valor hash diferente. Esto erosiona la eficiencia de la primera línea de defensa existente y podría hacer colapsar el sistema de comparación de hash”.
Los expertos en seguridad infantil rastrean la escalada de abuso sexual infantil generado por IA a fines de 2022, coincidiendo con el lanzamiento de ChatGPT por parte de OpenAI y la introducción de la IA generativa al público. A principios de ese año, se lanzó la base de datos LAION-5B, un catálogo de código abierto de más de 5 mil millones de imágenes que cualquiera puede usar para entrenar modelos de IA.
Las imágenes de abuso sexual infantil que se habían detectado previamente se incluyen en la base de datos, lo que significa que los modelos de IA entrenados en esa base de datos podrían producir CSAM, Stanford Los investigadores descubrieron esto a fines de 2023. Los expertos en seguridad infantil han destacado que los niños han resultado dañados durante el proceso de producción de la mayoría, si no todo, el material de abuso sexual infantil creado mediante IA.
“Cada vez que se introduce una imagen de abuso sexual infantil en una máquina de inteligencia artificial, esta aprende una nueva habilidad”, dijo Kristina Korobov, abogada principal del Zero Abuse Project, una organización sin fines de lucro de seguridad infantil con sede en Minnesota.
Cuando los usuarios cargan material CSAM conocido en sus herramientas de imágenes, OpenAI lo revisa y lo informa al NCMEC, dijo un portavoz de la empresa.
“Hemos realizado un esfuerzo importante para minimizar la posibilidad de que nuestros modelos generen contenido que dañe a los niños”, dijo el portavoz.
En 2023, el NCMEC recibió 36,2 millones de denuncias de abuso infantil en línea, un 12 % más que el año anterior. La mayoría de las denuncias recibidas estaban relacionadas con la circulación de fotos y vídeos reales de niños abusados sexualmente. Sin embargo, también recibió 4.700 denuncias de imágenes o vídeos de explotación sexual de niños realizados mediante IA generativa.
La NMEC ha acusado a las empresas de inteligencia artificial de no intentar activamente prevenir o detectar la producción de material de abuso sexual infantil. Solo cinco plataformas de inteligencia artificial generativa enviaron informes a la organización el año pasado. Más del 70% de los informes de material de abuso sexual infantil generado por IA provinieron de plataformas de redes sociales, que se habían utilizado para compartir el material, en lugar de las empresas de inteligencia artificial.
“Existen numerosos sitios y aplicaciones a los que se puede acceder para crear este tipo de contenido, incluidos modelos de código abierto, que no interactúan con CyberTipline y no emplean otras medidas de seguridad, según nuestro conocimiento”, dijo Fallon McNulty, director de CyberTipline del NCMEC, a The Guardian.
Teniendo en cuenta que la IA permite a los depredadores crear miles de nuevas imágenes de abuso sexual infantil con poco tiempo y un esfuerzo mínimo, los expertos en seguridad infantil prevén una carga cada vez mayor sobre sus recursos para intentar combatir la explotación infantil. El NCMEC dijo al Guardian que prevé que la IA impulse un aumento de las denuncias a su CyberTipline.
Este aumento esperado en los informes afectará la identificación y el rescate de las víctimas, amenazando un área de aplicación de la ley que ya cuenta con recursos insuficientes y está abrumada, dijeron expertos en seguridad infantil.
Los depredadores habitualmente comparten material CSAM con sus comunidades en plataformas peer to peer, utilizando aplicaciones de mensajería cifrada para evadir la detección.
La decisión de Meta de cifrar Facebook Messenger en diciembre y los planes de cifrar mensajes en Instagram han enfrentado reacciones negativas de los grupos de seguridad infantil, que temen que muchos de los millones de casos que ocurren en sus plataformas cada año ahora pasen desapercibidos.
Meta también ha introducido una serie de funciones de inteligencia artificial generativa en sus redes sociales durante el año pasado. Las imágenes creadas con inteligencia artificial se han convertido en uno de los contenidos más populares de la red social.
En una declaración al Guardian, un portavoz de Meta dijo: “Tenemos políticas detalladas y sólidas contra la desnudez, el abuso y la explotación infantil, incluido el material de abuso sexual infantil (CSAM, por sus siglas en inglés) y la sexualización infantil, y aquellos creados con GenAI. Informamos todos los casos aparentes de CSAM al NCMEC, de acuerdo con nuestras obligaciones legales”.
Los expertos en seguridad infantil dijeron que las empresas que desarrollan plataformas de IA y los legisladores deberían ser en gran medida responsables de detener la proliferación de CSAM generado por IA.
“Es imperativo diseñar herramientas de forma segura antes de su lanzamiento para garantizar que no se puedan utilizar para generar material de abuso sexual infantil”, afirmó McNulty. “Desafortunadamente, como hemos visto con algunos de los modelos de IA generativa de código abierto, cuando las empresas no siguen la seguridad desde el diseño, puede haber enormes efectos posteriores que no se pueden revertir”.
Además, dijo Korobov, las plataformas que pueden usarse para intercambiar material CSAM generado por IA necesitan asignar más recursos a la detección y la generación de informes.
“Se necesitarán más moderadores humanos que revisen las imágenes o ingresen a las salas de chat y otros servidores donde la gente intercambia este material y vean qué hay disponible, en lugar de depender de sistemas automatizados para hacerlo”, dijo. “Tendremos que verlo y reconocer que también es material de abuso sexual infantil; es solo que es algo nuevo”.
Mientras tanto, las principales empresas de redes sociales han recortado los recursos destinados a escanear y denunciar la explotación infantil eliminando puestos de trabajo en sus equipos de moderación infantil y de seguridad.
“Si las grandes empresas no están dispuestas a hacer lo básico en materia de detección de material sexualmente amenazante, ¿por qué pensaríamos que tomarían todas estas medidas adicionales en este mundo de inteligencia artificial sin regulación?”, dijo Gardner. “Hemos sido testigos de que lo puramente voluntario no funciona”.