Los sitios deepfake impulsados ​​por IA que “desnudan” a mujeres y niñas enfrentan una demanda histórica

0 0

Las autoridades de San Francisco presentaron una demanda histórica contra los populares sitios web deepfake que utilizan inteligencia artificial para “desnudar” imágenes de mujeres y niñas vestidas.

La oficina del fiscal de la ciudad está demandando a 16 de los sitios de “desnudez” con inteligencia artificial más vistos, que fueron visitados colectivamente más de 200 millones de veces solo en la primera mitad de 2024, según la demanda.

Los sitios web permiten a los usuarios cargar imágenes de personas reales vestidas, que luego la IA “desnuda” y convierte en imágenes falsas de desnudos.

El fiscal de la ciudad de San Francisco, David Chiu, anunció el jueves que su oficina está demandando a 16 operadores de sitios web de desnudos deepfake en un caso histórico. AP

“Me imagino perder el tiempo llevándola a citas, cuando puedes usar (nuestro sitio web) para obtener sus desnudos”, decía uno de los sitios web deepfake, según la demanda.

La demanda afirma que los desnudos deepfake se realizan sin consentimiento y se utilizan para intimidar, hostigar y extorsionar a mujeres y niñas en California y en todo el país.

“Esta investigación nos ha llevado a los rincones más oscuros de Internet y estoy absolutamente horrorizado por las mujeres y niñas que han tenido que soportar esta explotación”, dijo el fiscal de la ciudad de San Francisco, David Chiu, en un comunicado.

“Este es un problema grande y multifacético que nosotros, como sociedad, debemos resolver lo antes posible”, dijo.

Los sitios de “desnudez” han violado leyes federales y estatales que prohíben la pornografía de venganza, la pornografía deepfake y la pornografía infantil, afirma la demanda.

La demanda afirmaba que los acusados ​​también violaron la ley de competencia desleal de California porque “el daño que causan a los consumidores supera ampliamente cualquier beneficio asociado con esas prácticas”.

La fiscalía de la ciudad busca sanciones civiles y la eliminación de los sitios web deepfake, así como medidas para evitar que los propietarios de los sitios creen pornografía deepfake en el futuro.

La demanda hacía referencia a un caso de febrero de 2024, cuando Cinco estudiantes fueron expulsados ​​de una escuela secundaria de California después de crear y compartir imágenes de desnudos generadas por IA de 16 estudiantes de octavo grado.

Un deepfake muestra a la cantante Katy Perry asistiendo a la Gala del Met. Katyperry/Instagram

“Siento que no tuve elección sobre lo que me pasó a mí ni sobre lo que le pasó a mi cuerpo”, dijo una víctima de desnudos deepfake, según la demanda.

Otra dijo que ella y su familia viven en “desesperanza y miedo perpetuo de que, en cualquier momento, esas imágenes puedan reaparecer y ser vistas por innumerables personas más”.

La demanda es la primera que aborda directamente a los generadores de desnudos deepfake.

A medida que la industria de la IA crece, los deepfakes (o imágenes generadas y manipuladas por IA) se han vuelto más comunes.

Las imágenes generadas por IA a menudo pueden propagar información errónea como un reguero de pólvora.

Una imagen deepfake del Papa confundió a los usuarios de las redes sociales en 2023, hasta que los medios de comunicación confirmaron que fue realizada por IA. AP

En 2023 se volvió viral una imagen falsa del Papa Francisco con una chaqueta acolchada blanca de Balenciaga, y muchos creyeron que era real hasta que los medios de comunicación comenzaron a informar lo contrario.

Pero a menudo los deepfakes se vuelven siniestros.

Imágenes falsas de niños desnudos aparecieron en la parte superior de algunos resultados de búsqueda en los motores de Microsoft y Google, según Un informe de NBC News en marzo.

Desnudos falsos no consensuados de celebridades como Taylor Swift han circulado por la web.

Las imágenes de desnudos generadas por IA a menudo pueden conducir a esquemas de sextorsión, cuando la víctima se ve obligada a pagar dinero para evitar la publicación de imágenes falsas.

“Tenemos que ser muy claros en que esto no es innovación, es abuso sexual”, dijo Chiu. “Todos debemos hacer nuestra parte para acabar con los malos actores que utilizan la IA para explotar y abusar de personas reales, incluidos los niños”.

Fuente

Deja un comentario