'Falta de confianza': Cómo los deepfakes y la IA podrían sacudir las elecciones estadounidenses | Noticias sobre las elecciones estadounidenses de 2024
El 21 de enero, Patricia Gingrich estaba a punto de sentarse a cenar cuando sonó su teléfono fijo. La votante de New Hampshire contestó y escuchó una voz que le decía que no votara en las próximas primarias presidenciales.
“Mientras lo escuchaba, pensé, Dios, eso suena como Joe Biden”, dijo Gingrich a Al Jazeera. “Pero el hecho de que él estuviera diciendo que, para guardar su voto, no lo use en las próximas elecciones, sabía que Joe Biden nunca diría eso”.
Puede que la voz sonara como la del presidente de Estados Unidos, pero no era él: era un deepfake, generado por inteligencia artificial (IA).
Los expertos advierten que los deepfakes (audio, video o imágenes creados con herramientas de inteligencia artificial, con la intención de engañar) representan un alto riesgo para los votantes estadounidenses antes de las elecciones generales de noviembre, no solo al inyectar contenido falso en la carrera sino al erosionar la confianza pública.
Gingrich dijo que no se dejó engañar por el deepfake de Biden, pero teme que haya suprimido la participación electoral. El mensaje llegó a casi 5.000 votantes de New Hampshire pocos días antes de las primarias del estado.
“Esto podría ser malo para la gente que no está tan informada sobre lo que está pasando con los demócratas”, dijo Gingrich, presidente del Comité Demócrata de Barrington en Burlington, New Hampshire.
“Si realmente pensaran que no deberían votar por algo y Joe Biden les dijera que no lo hicieran, entonces tal vez no asistirían a esa votación”.
Grupos en línea vulnerables
La llamada de Biden no fue el único deepfake en lo que va del ciclo electoral. Antes de cancelar su candidatura presidencial, la campaña del gobernador de Florida, Ron DeSantis, compartió un vídeo que contenía imágenes generadas por inteligencia artificial de Donald Trump abrazando al inmunólogo Anthony Fauci, dos figuras que se enfrentaron públicamente durante la pandemia de COVID-19.
Y en septiembre, se envió una llamada automática diferente a 300 votantes que se esperaba participaran en las primarias republicanas de Carolina del Sur. Esta vez, los destinatarios escucharon una voz generada por IA que imitaba al senador Lindsey Graham y les preguntaba por quién estaban votando.
La práctica de alterar o falsificar contenidos, especialmente para obtener beneficios políticos, ha existido desde los albores de la política estadounidense. Incluso el primer presidente del país, George Washington, tuvo que lidiar con una serie de “cartas espurias” que parecían mostrarle cuestionando la causa de la independencia de Estados Unidos.
Pero las herramientas de inteligencia artificial ahora son lo suficientemente avanzadas como para imitar convincentemente a las personas de manera rápida y económica, lo que aumenta el riesgo de desinformación.
A estudiar Un informe publicado a principios de este año por investigadores de la Universidad George Washington predijo que, a mediados de 2024, los “ataques de IA” diarios aumentarían, lo que representaría una amenaza para las elecciones generales de noviembre.
El autor principal del estudio, Neil Johnson, dijo a Al Jazeera que el mayor riesgo no proviene de las recientes y obviamente falsas llamadas automáticas, que contenían mensajes sorprendentes, sino más bien de deepfakes más convincentes.
“Serán imágenes matizadas, imágenes modificadas, no información completamente falsa porque la información falsa atrae la atención de los verificadores de desinformación”, dijo Johnson.
El estudio encontró que las comunidades en línea están vinculadas de una manera que permite a los malos actores enviar grandes cantidades de medios manipulados directamente a la corriente principal.
Las comunidades en los estados indecisos podrían ser especialmente vulnerables, al igual que los grupos de padres en plataformas como Facebook.
“El papel de las comunidades de padres será importante”, dijo Johnson, señalando como ejemplo la rápida difusión de información errónea sobre las vacunas durante la pandemia.
“Creo que de repente nos enfrentaremos a una ola de (desinformación): muchas cosas que no son falsas, no son falsas, pero exageran la verdad”.
Erosionando la confianza pública
Sin embargo, los propios votantes no son los únicos objetivos de los deepfakes. Larry Norden, director senior del Programa de Elecciones y Gobierno del Centro Brennan para la Justicia, ha estado trabajando con funcionarios electorales para ayudarles a detectar contenido falso.
Por ejemplo, Norden dijo que los malos actores podrían usar herramientas de inteligencia artificial para ordenar a los trabajadores electorales que cierren un lugar de votación prematuramente, manipulando el sonido de la voz de su jefe o enviando un mensaje aparentemente a través de la cuenta de un supervisor.
Está enseñando a los trabajadores electorales a protegerse verificando los mensajes que reciben.
Norden enfatizó que los malos actores pueden crear contenido engañoso sin IA. “Lo que pasa con la IA es que hace que sea más fácil hacerlo a escala”, dijo.
El año pasado, Norden ilustró las capacidades de la IA creando un vídeo deepfake. de sí mismo para una presentación sobre los riesgos que plantea la tecnología.
“No tomó mucho tiempo”, dijo Norden, explicando que todo lo que tenía que hacer era introducir sus entrevistas televisivas anteriores en una aplicación.
Su avatar no era perfecto (su rostro estaba un poco borroso, su voz un poco entrecortada), pero Norden notó que las herramientas de inteligencia artificial están mejorando rápidamente. “Desde que grabamos eso, la tecnología se ha vuelto más sofisticada y creo que es cada vez más difícil saberlo”.
La tecnología por sí sola no es el problema. A medida que los deepfakes se vuelvan más comunes, el público se volverá más consciente de ellos y más escéptico respecto del contenido que consume.
Eso podría erosionar la confianza del público, y los votantes serían más propensos a rechazar la información verdadera. Las figuras políticas también podrían abusar de ese escepticismo para sus propios fines.
Los estudiosos del derecho han denominado este fenómeno el “dividendo del mentiroso”: la preocupación por los deepfakes podría facilitar que los sujetos de secuencias de audio o vídeo legítimas afirmen que las grabaciones son falsas.
Norden señaló como ejemplo el audio de Access Hollywood que surgió antes de las elecciones de 2016. En el clip, se escucha al entonces candidato Trump hablar sobre sus interacciones con las mujeres: “Puedes hacer cualquier cosa. Agárralos por el coño”.
La cinta, que era muy real, se consideró perjudicial para las perspectivas de Trump entre las votantes femeninas. Pero si hoy se filtrara un audio similar, Norden dijo que un candidato fácilmente podría llamarlo falso. “Sería más fácil para el público descartar ese tipo de cosas que hace unos años”.
Norden añadió: “Uno de los problemas que tenemos ahora en Estados Unidos es la falta de confianza, y esto sólo puede empeorar las cosas”.
¿Qué se puede hacer con los deepfakes?
Si bien los deepfakes son una preocupación creciente en las elecciones estadounidenses, relativamente pocas leyes federales restringen su uso. La Comisión Federal Electoral (FEC) aún tiene que restringir los deepfakes en las elecciones y los proyectos de ley en el Congreso siguen estancados.
Los estados individuales están luchando por llenar el vacío. De acuerdo a un rastreador de legislación Publicado por la organización de defensa del consumidor Public Citizen, hasta ahora se han promulgado 20 leyes estatales para regular los deepfakes en las elecciones.
Se han aprobado varios proyectos de ley más (en Hawaii, Luisiana y New Hampshire) y están a la espera de la firma del gobernador.
Norden dijo que no le sorprendió ver a los estados individuales actuar ante el Congreso. “Se supone que los estados son los laboratorios de la democracia, por lo que está volviendo a ser cierto: los estados están actuando primero. Todos sabemos que es muy difícil lograr que algo se apruebe en el Congreso”, dijo.
Los votantes y las organizaciones políticas también están tomando medidas. Después de que Gingrich recibió la llamada falsa de Biden en New Hampshire, se unió a una demanda, encabezada por la Liga de Mujeres Votantes, en busca de responsabilidad por el presunto engaño.
La fuente de la llamada resultó ser Steve Kramer, un consultor político que afirmó que su intención era llamar la atención sobre la necesidad de regular la IA en la política. Kramer también admitió estar detrás de la llamada automática en Carolina del Sur, imitando al senador Graham.
Kramer se presentó después de que NBC News revelara que había encargado a un mago que utilizara un software disponible públicamente para generar la voz deepfake de Biden.
Según la demanda, el deepfake tardó menos de 20 minutos en crearse y costó sólo 1 dólar.
Kramer, sin embargo, dijo a CBS News que recibió “5 millones de dólares de exposición” por sus esfuerzos, que esperaba que permitieran que las regulaciones de IA “se desarrollen por sí solas o al menos comiencen a pagarse por sí solas”.
“Mi intención era marcar la diferencia”, dijo.
Potencial para aplicar las leyes existentes.
Pero el caso de Kramer muestra que las leyes existentes pueden usarse para limitar los deepfakes.
La Comisión Federal de Comunicaciones (FCC), por ejemplo, dictaminó (PDF) a principios de este año que el software de imitación de voz está incluido en la Ley de Protección al Consumidor Telefónico de 1991 y, por lo tanto, es ilegal en la mayoría de las circunstancias.
La comisión finalmente propuesto una multa de 6 millones de dólares contra Kramer por la llamada automática ilegal.
El Departamento de Justicia de New Hampshire también cargado Kramer por delito grave de supresión de votantes y suplantación de candidato, lo que podría resultar en hasta siete años de prisión. Kramer se ha declarado inocente. No respondió a una solicitud de comentarios de Al Jazeera.
Norden dijo que es significativo que ninguna de las leyes de las que se acusa a Kramer esté diseñada específicamente para los deepfakes. “Los cargos penales en su contra no tienen nada que ver con la IA”, afirmó. “Esas leyes existen independientemente de la tecnología que se utilice”.
Sin embargo, esas leyes no son tan fáciles de aplicar a los malos actores que no son identificables o que se encuentran fuera de los EE. UU.
“Sabemos por las agencias de inteligencia que ya están viendo a China y Rusia experimentando con estas herramientas. Y esperan que se utilicen”, afirmó Norden. “En ese sentido, no se va a solucionar este problema mediante la legislación”.
Tanto Norden como Johnson creen que la falta de regulación hace que sea más importante que los votantes se informen sobre los deepfakes y aprendan a encontrar información precisa.
En cuanto a Gingrich, dijo que sabe que los deepfakes manipuladores se volverán más ubicuos. Ella también cree que los votantes deben informarse sobre el riesgo.
¿Su mensaje a los votantes? “Le diría a la gente que se asegure de saber que puede votar”.