OpenAI afirma que un grupo iraní utilizó ChatGPT para intentar influir en las elecciones estadounidenses | OpenAI

0 0

OpenAI dijo el viernes que había eliminado las cuentas de un grupo iraní por usar su chatbot ChatGPT para generar contenido destinado a influir en las elecciones presidenciales de Estados Unidos y otros temas.

La operación, identificada como Storm-2035, utilizó ChatGPT para generar contenido centrado en temas como comentarios sobre los candidatos de ambos lados en las elecciones estadounidenses, el conflicto en Gaza y la presencia de Israel en los Juegos Olímpicos y luego lo compartió a través de cuentas de redes sociales y sitios web, dijo Open AI.

La investigación de la empresa de inteligencia artificial respaldada por Microsoft mostró que ChatGPT se utilizaba para generar artículos largos y comentarios más breves en las redes sociales.

OpenAI afirmó que la operación no parecía haber logrado una participación significativa de la audiencia.

La mayoría de las publicaciones en redes sociales identificadas recibieron pocos o ningún “Me gusta”, comentarios o publicaciones compartidas y la empresa no vio indicios de que los artículos web se compartieran en las redes sociales.

Se ha prohibido a las cuentas utilizar los servicios de OpenAI y la compañía continúa monitoreando las actividades para detectar cualquier intento adicional de violar las políticas, afirmó.

A principios de agosto, un informe de inteligencia de amenazas de Microsoft dijo que la red iraní Storm-2035, compuesta por cuatro sitios web que se hacen pasar por medios de noticias, estaba interactuando activamente con grupos de votantes estadounidenses en extremos opuestos del espectro político.

El compromiso se estaba construyendo con “mensajes polarizadores sobre temas como los candidatos presidenciales de Estados Unidos, los derechos LGBTQ y el conflicto entre Israel y Hamás”, afirmó el informe.

La candidata demócrata, Kamala Harris, y su rival republicano, Donald Trump, están enfrascados en una reñida carrera de cara a las elecciones presidenciales del 5 de noviembre.

La empresa de inteligencia artificial dijo en mayo que había desbaratado cinco operaciones de influencia encubiertas que buscaban utilizar sus modelos para “actividades engañosas” en Internet.

Fuente

Deja un comentario