Autores demandan a empresa respaldada por Amazon por infracción

0 0

En los últimos dos años, ha surgido un mercado floreciente de licencias de material protegido por derechos de autor para entrenar sistemas de inteligencia artificial. OpenAI fue la primera en cerrar acuerdos con publicaciones como Axel Springer, News Corp. y Associated Press. Algunas otras en el campo siguieron sus pasos.

Este tipo de acuerdos no existían cuando las empresas de inteligencia artificial empezaron a enfrentarse a litigios que las acusaban de infracciones generalizadas. Ahora, las demandas apuntan cada vez más a la existencia de este mercado de licencias para argumentar que las empresas de inteligencia artificial están robando ilegalmente las obras de los creadores.

Los autores, en una demanda colectiva presentada el lunes por la noche, acusaron a Anthropic de descargar y copiar ilegalmente sus libros para alimentar su chatbot de inteligencia artificial Claude. La demanda alega que la empresa respaldada por Amazon “usurpó un mercado de licencias para los propietarios de derechos de autor”.

Sin la intervención del Congreso, la legalidad de utilizar obras protegidas por derechos de autor en conjuntos de datos de entrenamiento será decidida por los tribunales. Es probable que la cuestión se responda en parte en el uso justo, que brinda protección al uso de material protegido por derechos de autor para realizar una obra secundaria siempre que sea “transformativa”. Sigue siendo uno de los principales campos de batalla para la adopción generalizada de la tecnología.

La demanda de los autores hace un guiño a la postura de las empresas de inteligencia artificial de que su conducta está amparada por la doctrina legal. Al negarse a conceder licencias sobre el contenido que le permitió crear Claude, Anthropic está socavando un mercado existente que ya han establecido otras empresas de inteligencia artificial, afirma la demanda.

Las acusaciones podrían tener como objetivo socavar la defensa del uso justo, que fue efectivamente frenada cuando la Corte Suprema emitió su decisión en Fundación Andy Warhol para las Artes Visuales contra Goldsmith. En ese caso, la mayoría dijo que el análisis de si una obra supuestamente infractora fue suficientemente transformada debe equilibrarse con la “naturaleza comercial del uso”. Los autores, y otros creadores en situaciones similares, buscan aprovechar esa sentencia para establecer que Anthropic podría simplemente haber licenciado el material que infringió y que su conducta perjudica ilegalmente sus perspectivas de obtener ganancias a partir de su material al interferir con posibles acuerdos.

“En lugar de obtener material de capacitación de los tesoros piratas de libros protegidos por derechos de autor de este Napster moderno, Anthropic podría haber buscado y obtenido una licencia para hacer copias de ellos”, afirma la demanda. “En lugar de eso, tomó la decisión deliberada de ahorrar y confiar en materiales robados para entrenar a sus modelos”.

Según los autores, si Anthropic no hubiera cometido la supuesta infracción, se podrían llevar a cabo prácticas de concesión de licencias generalizadas a través de centros de intercambio de información, como el Copyright Clearance Center, que recientemente lanzó un mecanismo de concesión de licencias colectivas. Las discográficas, las publicaciones y los distintos autores que han demandado a empresas de inteligencia artificial han presentado argumentos similares en otros litigios.

El Gremio de Autores está explorando un modelo para que sus miembros opten por ofrecer una licencia general a las empresas de inteligencia artificial. Las primeras discusiones han implicado el pago de una tarifa por utilizar las obras como material de formación y la prohibición de los resultados que se basen demasiado en material existente.

“Tenemos que ser proactivos porque la IA generativa llegó para quedarse”, dijo Mary Rasenberger, directora ejecutiva de la organización. El reportero de Hollywood en enero. “Necesitan libros de alta calidad. Nuestra postura es que no hay nada malo con la tecnología, pero tiene que ser legal y tener licencia”.

La clase propuesta se presentó poco antes del anuncio el martes de que OpenAI había llegado a un acuerdo con Condé Nast para mostrar contenido de sus marcas, incluidas Moda, El neoyorquinoy GQdentro de ChatGPT y un prototipo de herramienta de búsqueda. Fue presentada en nombre de Andrea Bartz (La noche perdida: una novela, La manada), Charles Graeber (La buena enfermera: Una historia real de medicina, locura y asesinatoKirk Wallace Johnson (El pescador y el dragón: miedo, codicia y una lucha por la justicia en la costa del Golfo). La demanda, que sólo alega violación de derechos de autor, busca representar a otros autores cuyos libros fueron utilizados como datos de entrenamiento y una orden judicial que bloquee futuras infracciones.

Los autores también sostienen que Anthropic está privando a los autores de la posibilidad de vender sus libros al facilitar la creación de copias. Cuando Kara Swisher publicó Quemar libro A principios de este año, Amazon se vio inundada de copias generadas por inteligencia artificial, según la denuncia. En otro caso, la autora Jane Friedman descubrió un “alijo de libros basura” escritos con su nombre.

Según la demanda, estos estafadores recurren a Claude para generar ese tipo de contenido. “Se informó que un hombre llamado Tim Boucher había 'escrito' 97 libros utilizando Claude de Anthropic (así como ChatGPT de OpenAI) en menos de un año, y los había vendido a precios que iban desde 1,99 dólares hasta 5,99 dólares”, afirma la demanda. “Claude no podría generar este tipo de contenido extenso si no hubiera sido entrenado con una gran cantidad de libros, libros por los que Anthropic no pagó nada a los autores”.

Los autores afirman que Anthropic utilizó un conjunto de datos llamado “The Pile”, que incorpora casi 200.000 libros de un sitio de biblioteca en la sombra, para capacitar a Claude. En julio, Anthropic confirmó el uso del conjunto de datos para varias publicaciones, según la demanda.

Anthropic no respondió de inmediato a una solicitud de comentarios.

Fuente

Deja un comentario