Un periodista de Wyoming fue descubierto usando inteligencia artificial para crear citas e historias falsas | Inteligencia artificial (IA)
Una cita del gobernador de Wyoming y de un fiscal local fue lo primero que le pareció un poco extraño al periodista del Powell Tribune CJ Baker. Luego, algunas frases de los artículos le parecieron casi robóticas.
Sin embargo, la señal inequívoca de que un periodista de un medio de comunicación competidor estaba usando inteligencia artificial generativa para ayudar a escribir sus historias apareció en un artículo del 26 de junio sobre el comediante Larry the Cable Guy, elegido como gran mariscal del desfile Cody Stampede.
“El desfile Cody Stampede de 2024 promete ser una celebración inolvidable de la independencia estadounidense, liderada por una de las figuras más queridas de la comedia”, informó Cody Enterprise. “Esta estructura garantiza que la información más importante se presente primero, lo que facilita que los lectores comprendan los puntos principales rápidamente”.
Después de investigar un poco, Baker, que ha sido periodista durante más de 15 años, se reunió con Aaron Pelczar, un hombre de 40 años que era nuevo en el periodismo y que, según Baker, admitió que había usado IA en sus historias.
Baker, que lee regularmente el Enterprise porque es un competidor, dijo que una combinación de frases y citas en las historias de Pelczar despertaron sus sospechas.
El relato de Pelczar sobre un tiroteo en el parque nacional de Yellowstone incluía la frase: “Este incidente sirve como un duro recordatorio de la naturaleza impredecible del comportamiento humano, incluso en los entornos más serenos”.
Baker dijo que la línea sonaba como los resúmenes de sus historias que un determinado chatbot parece generar, en el sentido de que agrega algún tipo de “lección de vida” al final.
Otra historia, sobre una sentencia por caza furtiva, incluía citas de un funcionario de vida silvestre y un fiscal que parecían sacadas de un comunicado de prensa, dijo Baker. Sin embargo, no hubo ningún comunicado de prensa y las agencias involucradas no sabían de dónde provenían las citas, dijo.
Dos de las historias cuestionadas incluían citas falsas del gobernador de Wyoming, Mark Gordon, de las que su personal sólo se enteró cuando Baker los llamó.
“En un caso, (Pelczar) escribió un artículo sobre una nueva norma de la OSHA que incluía una cita del gobernador que era totalmente inventada”, dijo Michael Pearlman, portavoz del gobernador, en un correo electrónico. “En un segundo caso, aparentemente inventó una parte de una cita y luego la combinó con una parte de una cita que se incluyó en un comunicado de prensa que anunciaba al nuevo director de nuestro Departamento de Caza y Pesca de Wyoming”.
La copia generada por IA más obvia apareció en la historia sobre Larry the Cable Guy, que terminó con la explicación de la pirámide invertida, el enfoque básico para escribir una noticia de última hora.
En su artículo en el Powell Tribune en el que dio a conocer la noticia sobre el uso de inteligencia artificial por parte de Pelczar en sus artículos, Baker escribió que tuvo una reunión incómoda pero cordial con Pelczar y el editor de Enterprise, Chris Bacon. Durante la reunión, Pelczar dijo: “Obviamente, nunca intenté tergiversar intencionalmente a nadie” y prometió “corregirlos, disculparme y decir que son declaraciones erróneas”, escribió Baker, señalando que Pelczar insistió en que sus errores no deberían reflejarse en sus editores de Cody Enterprise.
Después de la reunión, la Enterprise inició una revisión completa de todos los artículos que Pelczar había escrito para el periódico en los dos meses que había trabajado allí. Han descubierto siete artículos que incluían citas generadas por IA de seis personas, dijo Bacon el martes. Todavía está revisando otros artículos. Pelczar renunció al periódico.
“Son citas muy creíbles”, dijo Bacon, señalando que las personas con las que habló durante su revisión de los artículos de Pelczar dijeron que las citas sonaban como algo que dirían, pero que en realidad nunca hablaron con Pelczar.
Baker informó que siete personas le dijeron que habían sido citadas en historias escritas por Pelczar pero que no habían hablado con él.
El editor y director de Enterprise, que fue cofundado en 1899 por Buffalo Bill Cody, se han disculpado y se han comprometido a tomar medidas para garantizar que esto no vuelva a suceder. En un editorial publicado el lunes, Bacon dijo que “no logró detectar” la copia de IA y las citas falsas.
“No importa que las citas falsas fueran el aparente error de un periodista novato que confió en la inteligencia artificial. Era mi trabajo”, escribió Bacon. Se disculpó porque “se le permitió a la inteligencia artificial incluir palabras que nunca se dijeron en las historias”.
Los periodistas han arruinado sus carreras inventando citas o hechos en sus artículos mucho antes de que existiera la IA. Pero este último escándalo ilustra los posibles peligros y riesgos que la IA plantea para muchas industrias, incluido el periodismo, ya que los chatbots pueden generar artículos falsos, aunque algo plausibles, con solo unas pocas indicaciones.
La inteligencia artificial ha encontrado un papel en el periodismo, incluso en la automatización de ciertas tareas. Algunas redacciones, incluida la Associated Press, utilizan la inteligencia artificial para liberar a los periodistas y dedicarlos a trabajos más impactantes, pero la mayoría del personal de AP no tiene permitido utilizar la inteligencia artificial generativa para crear contenido publicable.
Se ha demostrado que es importante ser sincero sobre cómo y cuándo se utiliza la IA. El año pasado, Sports Illustrated fue criticada por publicar reseñas de productos en línea generadas por IA que se presentaron como si hubieran sido escritas por periodistas que en realidad no existían. Después de que se supiera la historia, Sports Illustrated dijo que despediría a la empresa que produjo los artículos para su sitio web, pero el incidente dañó la reputación de la otrora poderosa publicación.
Pelczar no respondió a un mensaje telefónico que le dejaron en un número que figuraba como suyo, en el que le pedían que hablara sobre lo sucedido. Bacon dijo que Pelczar se negó a hablar del asunto con otro periódico de Wyoming que se había comunicado con él.
No es difícil crear historias con inteligencia artificial. Los usuarios podrían introducir una declaración jurada de un delito en un programa de inteligencia artificial y pedirle que escribiera un artículo sobre el caso, incluyendo citas de funcionarios locales, dijo Alex Mahadevan, director de un proyecto de alfabetización mediática digital en el Instituto Poynter, el principal centro de estudios sobre periodismo.
“Estos chatbots de IA generativa están programados para darte una respuesta, sin importar si esa respuesta es basura total o no”, dijo Mahadevan.
Megan Barton, editora de Cody Enterprise, escribió un editorial en el que calificaba a la IA como “la nueva y avanzada forma de plagio y, en el campo de los medios y la escritura, el plagio es algo que todos los medios de comunicación han tenido que corregir en algún momento. Es la parte fea del trabajo, pero una empresa dispuesta a corregir (o literalmente corregir) estos errores es una empresa respetable”.
Barton escribió que el periódico ha aprendido la lección, tiene un sistema implementado para reconocer historias generadas por IA y “tendrá conversaciones más largas sobre por qué las historias generadas por IA no son aceptables”.
La Enterprise no tenía una política de inteligencia artificial, en parte porque parecía obvio que los periodistas no debían usarla para escribir artículos, dijo Bacon. Poynter tiene una plantilla a partir de la cual los medios de comunicación pueden crear su propia política de inteligencia artificial.
Bacon planea tener uno instalado a finales de la semana.
“Este será un tema de discusión previo al empleo”, dijo.