'Esto te va a resultar espeluznante': mi voz clonada por IA fue utilizada por la extrema derecha. ¿Podría detenerlo? | Georgina Findlay
METROMi hermano acercó su teléfono a mi oreja. “Esto te resultará espeluznante”, advirtió. Un carrete de instagram que mostraba a un adolescente en un mitin presentaba una voz en off al estilo de un programa de noticias. Una voz femenina tranquila, con un acento mancuniano casi imperceptible, dijo: “La reciente protesta de un estudiante británico se ha convertido en un poderoso símbolo de una crisis cada vez más profunda en el sistema educativo del Reino Unido”. Me senté muy erguido, con los ojos bien abiertos.
Como presentadora de un canal de noticias de YouTube, estaba acostumbrada a escuchar mi voz en la pantalla. Sólo que este no era yo, incluso si la voz fuera indiscutiblemente mío. “Nos están obligando a aprender sobre el Islam y Mahoma en la escuela”, continuó. “Escucha. Esto es repugnante”. Fue escalofriante escuchar mi voz asociada con la propaganda de extrema derecha, pero más que eso, a medida que indagué más sobre cómo se perpetra esta estafa, descubrí cuán trascendentales pueden ser las consecuencias del audio falso.
La clonación de voz mediante IA es una forma emergente de audio “deepfake” y la tercera de más rápido crecimiento estafa de 2024. Las víctimas involuntarias encuentran su voz reproducida por expertos sin su consentimiento o incluso conocimiento, y el fenómeno ya ha llevado a que se realicen controles de seguridad en los bancos. omitido y la gente defraudado a enviar dinero a extraños que creían que eran familiares. Un amigo que había reconocido mi voz le había enviado el clip a mi hermano.
Después de investigar un poco, pude rastrearlo hasta un canal de YouTube de extrema derecha con alrededor de 200.000 suscriptores. Supuestamente era un canal estadounidense, pero muchos de los errores ortográficos en los videos eran típicos de cuentas de desinformación de habla no nativa inglesa. Me horroricé al descubrir que ocho de los 12 videos más recientes del canal habían usado mi voz. Al retroceder aún más, encontré un video de hace cinco meses en el que usaba mi voz y que mostraba una recuento de vistas de 10 m. La voz sonaba casi exactamente igual a la mía. Excepto que hubo un ritmo ligeramente extraño en mi discurso, una señal de que la voz fue generada por IA.
Esta creciente sofisticación del software de clonación de voz con IA es motivo de gran preocupación. En noviembre de 2023, circuló ampliamente en las redes sociales un audio deepfake del alcalde de Londres, Sadiq Khan, que supuestamente hacía comentarios incendiarios sobre el Día del Armisticio. El clip casi provoca “desorden grave”, Khan le dijo a la BBC. “El momento no podría haber sido mejor si lo que se busca es sembrar discordia y causar problemas”. En un momento en el que la confianza en el sistema político del Reino Unido ya alcanza niveles récord bajocon el 58% de los británicos diciendo que “casi nunca” confían en que los políticos digan la verdad, poder manipular la retórica pública nunca ha sido más dañino.
El derecho legal a tener la propia voz se encuentra dentro de una turbia zona gris de cuestiones de IA poco legisladas. El naturalista de televisión David Attenborough estuvo en el centro de un escándalo de clonación de voz mediante IA en noviembre: se describió a sí mismo como “profundamente perturbado” al descubrir que su voz era utilizada para entregar boletines de noticias partidistas estadounidenses; En mayo, la actriz Scarlett Johansson chocó con OpenAI después de que un modelo de conversión de texto a voz de su producto, ChatGPT, usara una voz que Johansson describió como “inquietantemente similar” a la suya.
En marzo de 2024, OpenAI retrasó el lanzamiento de una nueva herramienta de clonación de voz, considerándola “demasiado arriesgada” para su lanzamiento general en un año con un número récord de elecciones mundiales. Algunas nuevas empresas de inteligencia artificial que permiten a los usuarios clonar su propia voz han introducido una política de precaución, lo que les permite detectar la creación de clones de voz que imitan a figuras políticas involucradas activamente en campañas electorales, empezando por las de Estados Unidos y el Reino Unido.
Pero estas medidas de mitigación no son suficientes. En Estados Unidos, senadores preocupados han propuesto un proyecto de ley que tomaría medidas enérgicas contra quienes reproducen audio sin consentimiento. En Europa, el Sistema Europeo de Observatorio del Robo de Identidad (eitos) está desarrollando cuatro herramientas para ayudar a la policía a identificar deepfakes, que esperan estén listas este año. Pero abordar nuestra crisis del audio no será tarea fácil. El Dr. Dominic Lees, un experto en IA en cine y televisión que asesora a un comité parlamentario del Reino Unido, dijo a The Guardian: “Nuestras leyes de privacidad y derechos de autor no están actualizadas con lo que presenta esta nueva tecnología”.
Si un problema es la caída de la confianza en las instituciones, otro es la creciente desconfianza entre las comunidades. La capacidad de confiar es fundamental para la cooperación humana en nuestras vidas personales y profesionales cada vez más globalizadas y cada vez más entrelazadas; sin embargo, nunca hemos estado tan cerca de socavarla. Hany Farid, profesora de ciencia forense digital en la Universidad de California en Berkeley y experta en la detección de deepfakes, dijo al Washington Post que las consecuencias de esta crisis del audio podrían ser tan extremas como la violencia masiva o el “robo de elecciones”.
¿Podría haber alguna ventaja en esta nueva capacidad de clonar voces fácilmente? Tal vez. Los clones de voz de IA podrían permitirnos buscar consuelo al conectarnos con los fallecidos seres queridoso ayudar a dar voz a aquellos con condiciones medicas. El actor americano Val Kilmerque ha recibido tratamiento para el cáncer de garganta, regresó en 2022 para Top Gun: Maverick con la voz restaurada por IA. Nuestra capacidad de innovar puede servir a quienes tienen objetivos nefastos, pero también sirve a quienes trabajan por el bien.
Si bien compartí voluntariamente mi voz en la pantalla cuando me convertí en presentador, no acepté ceder esta parte integral y preciosa de mí a cualquiera que quiera usarla. Como locutores, a veces nos preocupa cómo un resfriado o un virus invernal podría afectar nuestras grabaciones. Pero mi experiencia reciente le ha dado otro significado mucho más siniestro al concepto de perder la voz.