Anthropic aplicará barreras de protección de derechos de autor en herramientas de inteligencia artificial

0 0

Un trío de importantes editores de música que demandaron a Anthropic por el uso de letras para entrenar su sistema de inteligencia artificial llegaron a un acuerdo con la compañía respaldada por Amazon para resolver algunas partes de una orden judicial preliminar pendiente.

La jueza de distrito estadounidense Eumi Lee aprobó el jueves una acuerdo entre las dos partes exigen a Anthropic mantener las barreras de seguridad existentes que impiden que su chatbot Claude AI proporcione letras de canciones propiedad de los editores o cree nuevas letras de canciones basadas en el material protegido por derechos de autor.

En una declaración, Anthropic dijo que Claude “no está diseñado para ser utilizado para infringir los derechos de autor, y contamos con numerosos procesos diseñados para evitar dicha infracción”. Añadió: “Nuestra decisión de celebrar esta estipulación es consistente con esas prioridades. Seguimos esperando demostrar que, de acuerdo con la ley de derechos de autor existente, el uso de material potencialmente protegido por derechos de autor en el entrenamiento de modelos generativos de IA es un uso legítimo por excelencia”.

Universal Music Group, Concord Music Group y ABKCO, entre otras editoriales, demandaron a Anthropic en un tribunal federal de Tennessee en 2023, acusándola de infracción de derechos de autor por entrenar su sistema de inteligencia artificial en letras de al menos 500 canciones de artistas como Katy Perry, los Rolling Stones. y Beyoncé. Un ejemplo: cuando se le preguntó la letra de “Roar” de Perry, propiedad de Concord, Claude proporcionó una copia casi idéntica de la letra de la canción, según la denuncia.

En el centro de la demanda estaban las acusaciones de que ya existe un mercado que está siendo socavado por el robo de letras de Anthropic sin consentimiento ni pago. Los editores señalaron agregadores de letras musicales y sitios web que han autorizado sus obras.

La demanda marcó la primera acción legal emprendida por un editor de música contra una empresa de inteligencia artificial por la incorporación de letras en un modelo de lenguaje grande.

Según el acuerdo, Anthropic aplicará medidas de seguridad ya implementadas en el entrenamiento de nuevos sistemas de IA. El acuerdo también proporciona una vía para que los editores de música intervengan si las barreras de seguridad no funcionan como se esperaba.

“Los editores pueden notificar a Anthropic por escrito que sus Guardrails no impiden de manera efectiva la producción que reproduce, distribuye o muestra, en su totalidad o en parte, las letras de composiciones propiedad de o controladas por los editores, o crea trabajos derivados basados ​​en esas composiciones”, el estados de presentación. “Anthropic responderá a los editores rápidamente y emprenderá una investigación sobre esas acusaciones, con las cuales los editores cooperarán de buena fe”.

Anthropic ha sostenido en presentaciones judiciales que las barandillas existentes hacen poco probable que cualquier usuario futuro pueda incitar a Claude a producir cualquier parte material de las obras en traje. Consisten en una “gama de medidas técnicas y de otro tipo, en todos los niveles del ciclo de vida del desarrollo, que tienen como objetivo evitar que los usuarios simplemente soliciten a Claude que regurgite datos de entrenamiento”, dijo un portavoz de la empresa.

Se espera que el tribunal emita un fallo en los próximos meses sobre si se debe emitir una orden judicial preliminar que prohibiría a Anthropic entrenar futuros modelos sobre letras propiedad de los editores.

Fuente

Deja un comentario

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. AcceptRead More