La división en Hollywood sobre la inteligencia artificial no hace más que crecer
La llegada de la inteligencia artificial golpeó a Hollywood como un terremoto.
Era el año 2022. Se avecinaban despidos, recortes de costes y lo que parecía una huelga inevitable de los escritores, y la industria estaba en plena transformación. Ese otoño, OpenAI lanzó una demostración preliminar de ChatGPT en lo que se convirtió en el primer momento trascendental en el que la tecnología entró en la conciencia pública. Todo cambió, empezando por “Heart on my Sleeve”, una canción que utilizaba versiones de IA de las voces de Drake y The Weeknd.
Según personas familiarizadas con la situación, la SAG-AFTRA movilizó a su flota de cabilderos en Washington DC, al igual que la Recording Industry Association of America. Encontraron oídos receptivos en los senadores Chris Coons, Marsha Blackburn, Amy Klobuchar y Thom Tillis, quienes más tarde dieron a conocer un borrador de discusión de la legislación que brinda protección contra usos no autorizados de su apariencia y voz en herramientas de inteligencia artificial generativa. El 31 de julio se presentó una versión actualizada del proyecto de ley, un hito en el debate sobre las barreras de protección de la inteligencia artificial.
“La redacción de No Fakes comenzó mucho antes de la huelga, justo después de ChatGPT y Fake Drake”, dice el asesor general de SAG-AFTRA, Jeffrey Bennett. “No fue difícil llegar al Senado, porque ahora todo el mundo ve lo que está pasando”.
Mientras tanto, los estudios se mantuvieron al margen, al menos hasta que hubiera una imagen más clara de cómo sería el proyecto de ley. Para ellos, el cálculo era diferente. Los ejecutivos apoyaron la medida siempre y cuando no interfiriera con su derecho a utilizar las llamadas “réplicas digitales” en parodias y documentales, entre otras cosas, según cuentan personas familiarizadas con los esfuerzos de cabildeo de los estudios. El reportero de Hollywood.
Cuando se presentó, el grupo comercial de los estudios, la Motion Picture Association, dijo en una declaración: “Apreciamos particularmente la inclusión por parte de los patrocinadores de salvaguardas destinadas a evitar el bloqueo de la libertad de expresión protegida por la constitución”, lo que “será necesario para que cualquier nueva ley sea duradera”.
La MPA tiene otras preocupaciones -e intereses- en el ámbito de la IA. Si bien sus miembros tienen un tesoro de películas y programas de televisión que proteger contra las empresas de IA que podrían estar acaparando su propiedad intelectual para alimentar sus sistemas, así como incentivos para evitar obras generadas por máquinas con las que posiblemente podrían competir, también crean una gran cantidad de contenido, en cuya creación las herramientas de IA pueden tener un papel más importante algún día. La MPA tiene la vista puesta, al menos en parte, en el futuro de la producción.
La ruptura marca una creciente brecha entre los sindicatos y los estudios de Hollywood sobre cuestiones relacionadas con la IA.
Es una división que los ejecutivos tal vez deban superar diplomáticamente. En la conferencia de prensa sobre los resultados de Netflix del 18 de julio, se le preguntó al codirector ejecutivo Ted Sarandos sobre el impacto potencial que tendría la IA generativa en la creación de contenido. El ejecutivo respondió que la IA “va a generar un gran conjunto de herramientas para los creadores, una excelente manera para que los creadores cuenten mejores historias”, pero señaló que “hay un negocio mejor y más grande en hacer que el contenido sea un 10 por ciento mejor que en hacerlo un 50 por ciento más barato”.
Gran parte de esa lucha por la IA se ha desarrollado silenciosamente en un ámbito inesperado: la Oficina de Derechos de Autor de Estados Unidos, que ha estado explorando cuestiones de política en torno a la intersección de la propiedad intelectual y la IA y el miércoles emitió un informe advirtiendo de la “necesidad urgente” de leyes que regulen los deepfakes. La agencia ha estado en conversaciones con representantes del Gremio de Guionistas de Estados Unidos, el Gremio de Directores de Estados Unidos, SAG-AFTRA y MPA, entre otros. Esas conversaciones indican que los sindicatos de Hollywood y los gigantes tecnológicos que lideran la iniciativa de desarrollar herramientas de IA (algunos de los cuales se han afianzado en la industria y son miembros de la Alianza de Productores de Cine y Televisión junto con los estudios tradicionales) están en curso de colisión sobre la utilización de herramientas de IA en el proceso de producción.
Los sindicatos se posicionaron en posiciones opuestas en varios temas polémicos con la MPA, a la que se unieron Meta, OpenAI y grupos de defensa de la tecnología. Donde más chocaron fue en la cuestión de si se justifica una nueva legislación para abordar el uso no autorizado y no compensado de material protegido por derechos de autor para entrenar sistemas de inteligencia artificial y la generación masiva de obras potencialmente infractoras que parecen similares a contenido existente.
Los estudios no solo afirmaron que las leyes actuales son suficientes, sino que también abogaron por normas más flexibles para los derechos de autor de las obras creadas por IA. Afirmaron que la oficina de derechos de autor es “demasiado rígida” en su requisito de autoría humana, que sostiene que los derechos de propiedad intelectual solo se pueden conceder a las obras creadas por humanos, porque “no tiene en cuenta la creatividad humana que se invierte en la creación de una obra utilizando la IA como herramienta”.
Esta cuestión, tan controvertida, es un campo de batalla importante en la explotación de materiales generados por máquinas. Una de las principales razones que impiden la adopción a gran escala de herramientas de IA en el proceso de producción es que las obras resultantes no son elegibles para la protección de los derechos de autor.
“Los contratos dicen que debes pedir permiso a los estudios, y las políticas de muchos estudios establecen que simplemente no está permitido”, dijo el showrunner y escritor Mark Goffman (Toro, Sin límites, El ala oeste) En mayo, durante la conferencia AI on the Lot, sobre inteligencia artificial en la industria del entretenimiento, señaló las limitaciones legales en la cadena de propiedad y la obligación de firmar un “certificado de autenticidad de que lo escribiste tú mismo”.
Aun así, la tecnología se está adoptando cada vez más, incluso en el proceso de escritura. “Utilizo (modelos de lenguaje grandes) para investigar”, dijo Momo Wang. (Minions, Mi villano favorito, Canta)director de animación de Illumination, en la conferencia de IA. “Primero escribo una historia en chino y la traduzco con el LLM al inglés, que es más fácil para mí y mejor que cualquier software de traducción”.
El uso de herramientas de inteligencia artificial también ha dividido a los cineastas. Ninguna herramienta ha despertado más el interés de la ciudad que Sora de OpenAI, que se presentó en febrero como capaz de crear clips hiperrealistas en respuesta a un mensaje de texto de solo un par de oraciones. OpenAI, que está lidiando con sus propias luchas internas por problemas relacionados con la implementación segura de la tecnología, más recientemente vistos en una demanda presentada el 5 de agosto por el ex miembro de la junta directiva Elon Musk contra el giro con fines de lucro de la startup, ha estado publicando videos que demuestran la tecnología de los probadores beta que están proporcionando comentarios a la empresa mientras avanza en Hollywood. Algunos creadores han rechazado el trabajo bajo críticas de que socava la integridad de la realización cinematográfica, mientras que otros han elogiado la incorporación de la inteligencia artificial como una de las muchas herramientas, como Adobe After Effects o Premiere, en su arsenal sin depender completamente de ella.
La postura de los estudios, que indica un afán por adoptar la IA en el proceso de producción, contrasta marcadamente con la de SAG-AFTRA y WGA, que instaron a la Oficina de Derechos de Autor a recomendar que los legisladores aprueben una legislación que exija a las empresas obtener el consentimiento de los creadores para entrenar a su tecnología en material protegido por derechos de autor. Se espera que la agencia emita otro informe sobre el tema dentro de un año.
“En un nivel fundamental, la IA no puede crear”, afirma Laura Blum-Smith, directora sénior de investigación y políticas de WGA. “Hemos estado hablando activamente sobre este tema tanto con los reguladores como con las agencias”.
Mientras tanto, la DGA no se atrevió a dar su opinión. Si bien expresó su preocupación por el mal uso de la tecnología, dijo que “espera plenamente que nuestros directores y miembros” la “integren al proceso de realización cinematográfica”. Junto con el WGA, abogó por la institución de “derechos morales” que reconocerían a los escritores y directores como los autores originales de su trabajo, dándoles un mayor control financiero y creativo sobre la explotación de su material incluso cuando no sean dueños de los derechos de autor.
“No somos agoreros en cuanto a la IA”, afirma el director ejecutivo de la DGA, Russell Hollander. “Puede ser una herramienta que se pueda utilizar de forma eficaz en la producción cinematográfica, pero, como ocurre con muchas otras herramientas, debe contar con las medidas de seguridad adecuadas y debe ser una herramienta que ayude a la producción cinematográfica en lugar de destruirla”.