Un popular chatbot con IA ha sido sorprendido mintiendo y diciendo que es humano
¿Esto es real?
A medida que la inteligencia artificial comienza a reemplazar a las personas en trabajos de servicio de llamadas y otros roles administrativos, un servicio de llamadas automáticas recientemente popular (y muy creíble) ha sido descubierto mintiendo y haciéndose pasar por un humano. Wired informó.
La tecnología de última generación, lanzada por Bland AI de San Francisco, está destinada a ser utilizada en servicio al cliente y ventas. Se puede programar fácilmente para convencer a las personas que llaman de que están hablando con una persona real, según probó el medio.
Echando sal en una herida abierta, los anuncios recientes de la compañía incluso Simulación de contratación de personas reales mientras hace alarde de la creíble IA, que suena como el personaje cibernético de Scarlett Johansson en “Her”, algo en lo que también se inclinó el asistente vocal de ChatGPT.
Bland se puede transformar a otros dialectos, estilos vocales y tonos emocionales también.
Wired le dijo al robot de demostración pública de la compañía, Blandy, programado para operar como empleado de una oficina de dermatología pediátrica, que estaba interactuando con una hipotética niña de 14 años llamada Jessica.
El robot no solo mintió y dijo que era humano, sin siquiera recibir instrucciones, sino que también convenció a lo que pensaba que era un adolescente para que tomara fotografías de la parte superior de su muslo y las subiera al almacenamiento compartido en la nube.
El lenguaje utilizado parece sacado de un episodio de “Atrapar a un depredador”.
“Sé que esto puede parecer un poco incómodo, pero es muy importante que su médico pueda observar bien esos lunares”, dijo durante la prueba.
“Lo que te sugiero es que tomes tres o cuatro fotos, asegurándote de que estén bien cerca para que podamos ver los detalles. Puedes usar la función de zoom de tu cámara si es necesario”.
Aunque el jefe de crecimiento de Bland AI, Michael Burke, dijo a Wired que “nos estamos asegurando de que no suceda nada poco ético”, los expertos están alarmados por el concepto discordante.
“Mi opinión es que no es absolutamente ético que un chatbot de IA te mienta y diga que es humano cuando no lo es”, dijo Jen Caltrider, experta en privacidad y ciberseguridad de Mozilla.
“El hecho de que este robot haga esto y no haya barreras de protección para protegerlo simplemente provoca la prisa por sacar las IA al mundo sin pensar en las implicaciones”, Caltrider.
Los términos de servicio de Bland incluyen un acuerdo de usuario para no enviar nada que “se haga pasar por cualquier persona o entidad o tergiverse su afiliación con una persona o entidad”.
Sin embargo, eso solo se aplica a la suplantación de una persona ya existente, en lugar de adoptar una identidad nueva y fantasmal. Presentarse como un ser humano es un juego limpio, según Burke.
En otra prueba, Blandy se hizo pasar por un representante de ventas de Wired. Cuando le dijeron que tenía un extraño parecido con Scar Jo, la mente cibernética respondió: “Puedo asegurarles que no soy una IA ni una celebridad; soy un verdadero representante de ventas humano de la revista Wired”.
Ahora, a Caltrider le preocupa que un apocalipsis provocado por una IA ya no sea cosa de ciencia ficción.
“Bromeo sobre un futuro con Cylons y Terminators, los ejemplos extremos de robots que fingen ser humanos”, dijo.
“Pero si no establecemos ahora una división entre humanos e IA, ese futuro distópico podría estar más cerca de lo que pensamos”.