Delincuentes reales, víctimas falsas: cómo se están utilizando los chatbots en la lucha global contra los estafadores telefónicos | Inteligencia artificial (IA)
Un estafador llama y pide una contraseña. Malcolm, un hombre mayor con acento inglés, está confundido.
—¿De qué negocio estás hablando? —pregunta Malcolm.
Otro día, otra llamada telefónica fraudulenta.
Esta vez, Ibrahim, un hombre cooperativo y educado con acento egipcio, contesta. “Francamente, no estoy muy seguro de recordar haber comprado nada recientemente”, le dice al esperanzado estafador. “Quizás alguno de los chicos lo haya hecho”, continúa Ibrahim, “pero no es tu culpa, ¿verdad?”.
Los estafadores son reales, pero Malcolm e Ibrahim no. Son solo dos de los robots de inteligencia artificial conversacional creados por el profesor Dali Kaafar y su equipo. A través de su investigación en la Universidad Macquarie, Kaafar fundó Apate, llamada así por la diosa griega del engaño.
El objetivo de Apate es derrotar las estafas telefónicas globales con IA conversacional, aprovechando los sistemas ya existentes donde las compañías de telecomunicaciones desvían las llamadas que pueden identificar como provenientes de estafadores.
Kafaar se inspiró para darle la vuelta a la situación a los estafadores telefónicos después de gastarle una “broma de papá” a un estafador que llamaba delante de sus dos hijos mientras disfrutaban de un picnic al sol. Con una charla tonta, mantuvo al estafador en la línea. “Los niños se rieron mucho”, dice. “Y yo pensaba que el propósito era engañar al estafador, hacerle perder el tiempo para que no hablara con los demás.
“Estafar a los estafadores, por así decirlo”.
Al día siguiente, llamó a su equipo del Centro de Seguridad Cibernética de la universidad. Pensó que debía haber una forma mejor que su método de “broma de papá”. Y tenía que haber algo más inteligente que una popular pieza de tecnología existente: el Lennybot.
Antes de Malcolm e Ibrahim, estaba Lenny.
Lenny es un australiano mayor y de aspecto vago, con ganas de charlar sin parar. Es un chatbot diseñado para trollear a los vendedores telefónicos.
Con una voz áspera, matizada por un ligero silbido, Lenny repite varias frases en bucle. Cada frase comienza después de un segundo y medio de silencio, para imitar el ritmo de una conversación.
El creador anónimo de Lenny publicó en Reddit que crearon el chatbot para que fuera “la peor pesadilla de un teleoperador… un anciano solitario que está dispuesto a charlar, orgulloso de su familia y no puede concentrarse en el objetivo del teleoperador”. El acto de atar a los estafadores se ha denominado scambaiting.
Los robots Apate al rescate
Las empresas de telecomunicaciones en Australia han bloqueado casi 2 mil millones de llamadas telefónicas fraudulentas desde diciembre de 2020.
Gracias en parte a la financiación de 720.000 dólares de la Oficina de Inteligencia Nacional, ahora hay potencialmente cientos de miles de “chatbots de víctimas”, demasiados para nombrarlos individualmente. Los bots de varias “edades” hablan inglés con una variedad de acentos. Tienen una variedad de emociones, personalidades y respuestas. A veces son ingenuos, a veces escépticos, a veces groseros.
Si una empresa de telecomunicaciones detecta a un estafador y lo desvía a un sistema como Apate, los bots trabajarán para mantener a los estafadores ocupados. Prueban diferentes estrategias y aprenden qué funciona para asegurarse de que los estafadores permanezcan en la línea durante más tiempo. A través del éxito y el fracaso, las máquinas perfeccionan su patrón.
Mientras hacen esto, extraen inteligencia y detectan nuevas estafas, recopilando información sobre cuánto dura la llamada, cuándo es más probable que llamen los estafadores, qué información buscan y qué tácticas están utilizando.
Kafaar espera que Apate ponga fin al modelo de negocio de las llamadas fraudulentas, que suelen llevar adelante grandes organizaciones criminales multimillonarias. El siguiente paso es utilizar la información obtenida para advertir y abordar las estafas en tiempo real.
“Hablamos de verdaderos criminales que nos hacen la vida imposible”, dice Kafaar. “Hablamos de los riesgos que corren seres humanos reales.
“Seres humanos que a veces pierden los ahorros de toda su vida, que pueden quedar paralizados por las deudas y a veces psicológicamente heridos por la vergüenza”.
Richard Buckland, profesor de delitos cibernéticos en la Universidad de Nueva Gales del Sur, dice que una tecnología como Apate es distinta de otros tipos de estafas, que pueden ser amateurs o equivaler a vigilantismo.
“Normalmente, el scambaiting es problemático”, dice, “pero esto es inteligente”.
Se pueden cometer errores cuando las personas toman las cosas en sus propias manos, afirma.
“Se puede atacar a la persona equivocada”, afirmó. Muchas estafas son llevadas a cabo por personas en condiciones de servidumbre, casi de esclavitud, “y no son ellos los que están en el lado malo”.
“Algunos estafadores se sienten tentados a ir más allá y tomar la justicia por su mano, a contraatacar o a enfrentarse a ellos. Eso es problemático”.
Pero, dice, el modelo Apate parece estar usando la IA para bien: como una especie de “trampa” para atraer a los criminales y luego aprender de ellos.
Buckland advierte que se necesitaría un alto nivel de confianza en que las compañías de telecomunicaciones solo están desviando a los estafadores hacia los bots de IA, porque la identificación errónea ocurre en todas partes. También advierte que las organizaciones criminales podrían usar la tecnología de IA antiestafas para entrenar sus propios sistemas.
“La misma tecnología utilizada para engañar a los estafadores podría utilizarse para engañar a la gente”, afirma.
El Centro Nacional Antiestafas (NASC) administra Scamwatch bajo los auspicios de la Comisión Australiana de Competencia y Consumo (ACCC). Un portavoz de la ACCC dice que los estafadores suelen hacerse pasar por organizaciones conocidas y, a menudo, pueden suplantar números de teléfono legítimos.
“Los delincuentes crean una sensación de urgencia para intentar que las víctimas actúen rápidamente”, afirma el portavoz. “A menudo intentan convencer a las víctimas de que compartan datos personales o de cuentas bancarias, o de que les proporcionen acceso remoto a sus ordenadores.
“Es posible que los delincuentes ya tengan algunos detalles sobre sus víctimas previstas, como su nombre o dirección, que obtuvieron o compraron ilegalmente a través de una filtración de datos, phishing u otra estafa”.
Esta semana, Scamwatch tuvo que emitir una advertencia sobre una especie de meta-estafa.
Los estafadores que decían ser del propio NASC llamaban a personas inocentes y les decían que estaban siendo investigados por estar involucrados en una estafa.
La NASC dice que las personas deben colgar el teléfono inmediatamente contra los estafadores y “no intentar relacionarse con delincuentes”. El portavoz dijo que estaba al tanto de “iniciativas tecnológicas para producir cebos de estafas utilizando personajes de voz de IA”, incluido Apate, y que estaría interesado en revisar cualquier evaluación de la plataforma.
Mientras tanto, hay una comunidad de estafadores en línea que prospera y Lenny sigue siendo uno de sus héroes de culto.
En una grabación memorable, Lenny le pide a la persona que llama que espere un minuto, mientras los patos comienzan a graznar de fondo. “Lo siento”, dice Lenny. “¿Qué estabas diciendo?”
“¿Estás al lado de tu computadora?”, pregunta impaciente el interlocutor. “¿Tienes una computadora? ¿Puedes acercarte a ella ahora?”
Lenny continúa hasta que el estafador pierde el control: “Cállate, cállate, cállate”.
—¿Podrías esperar un momento? —pregunta Lenny mientras los patos comienzan a graznar de nuevo.