Autores demandan a la startup de inteligencia artificial Anthropic por violación de derechos de autor

0 0

Tres autores presentaron una demanda colectiva contra la startup de inteligencia artificial Anthropic, alegando que la compañía utilizó copias pirateadas de su trabajo para entrenar a su chatbot Claude.

Si bien es la primera demanda de este tipo contra Anthropic (un actor importante en la industria de la IA que ha recaudado más de 7 mil millones de dólares durante el año pasado), se suma a una creciente pila de desafíos de derechos de autor dirigidos a los chatbots de IA.

Los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson buscan representar a los autores de obras de ficción y no ficción cuyo trabajo ha sido robado y utilizado sin pago por Anthropic.

Tres autores presentaron una demanda colectiva contra la startup de inteligencia artificial Anthropic, alegando que la compañía robó trabajo protegido por derechos de autor para entrenar a su chatbot. AP

Los autores afirman que Anthropic, respaldada por empresas de capital de riesgo como Menlo Ventures, que prometió una donación de 750 millones de dólares, cometió un “robo a gran escala” al utilizar materiales con derechos de autor para entrenar a Claude sin permiso.

Se han acumulado demandas similares contra OpenAI y su chatbot ChatGPT, pero esta es la primera demanda contra la startup más pequeña con sede en San Francisco.

Anthropic fue cofundada por los hermanos Dario y Daniela Amodei, quienes trabajaron en OpenAI antes de fundar su propia empresa.

En gran medida, se ha considerado que Anthropic era más consciente de la seguridad que su predecesor más grande y conocido.

Obtuvo esta imagen cuando Dario dijo que retuvo la tecnología de Claude – aunque podría haberlo lanzado antes del increíblemente popular ChatGPT de OpenAI – por cuestiones de seguridad.

Claude se ha utilizado para generar correos electrónicos, resumir documentos e interactuar con usuarios humanos, pero ahora se enfrenta a las mismas demandas por infracción de derechos de autor que su antecesor.

La demanda presentada el lunes en un tribunal federal de San Francisco afirma que Anthropic se ha “burlado de sus nobles objetivos” al utilizar copias pirateadas del trabajo de los autores para entrenar a su chatbot.

La demanda afirma que Anthropic construyó un negocio multimillonario a costa de los autores, robando libros con derechos de autor y alimentándolos en modelos de inteligencia artificial para ayudar al chatbot a crear mensajes similares a los humanos.

Anthropic se ganó la reputación de ser una startup de inteligencia artificial más segura después de que su fundador dijera que se abstuvo de lanzar el chatbot anteriormente por cuestiones de seguridad. REUTERS

“No es exagerado decir que el modelo de Anthropic busca sacar provecho de la expresión humana y el ingenio detrás de cada una de esas obras”, afirma la demanda.

Las empresas emergentes de inteligencia artificial de California y Nueva York se han visto afectadas por un número cada vez mayor de demandas por violación de derechos de autor por parte de autores, músicos, productores y otros artistas.

El Gremio de Autores presentó una demanda contra OpenAI, respaldada por Microsoft, en septiembre pasado en nombre de escritores famosos, entre ellos John Grisham, Jodi Picoult y el autor de “Game of Thrones”, George RR Martin, acusando a la startup de usar ilegalmente obras publicadas para entrenar a su chatbot.

El chatbot Claude de Anthropic se ha utilizado para generar correos electrónicos, resumir documentos e interactuar con usuarios humanos. Antropogénico

OpenAI también enfrenta demandas de gigantes de los medios, incluidos The New York Times, Chicago Tribune y Mother Jones.

Las nuevas empresas tecnológicas han argumentado que están protegidas por la doctrina del “uso justo”, que permite el uso limitado de materiales protegidos por derechos de autor para la enseñanza o al transformar la obra en algo nuevo.

Pero la demanda argumentó que la violación de los derechos de autor no podía considerarse un “uso justo” porque el chatbot no estaba siendo “enseñado” como un ser humano real.

Fuente

Deja un comentario