Un político de Florida fue objeto de una elaborada estafa de IA en un 'accidente automovilístico', que casi engañó a su padre y le hizo desembolsar más de 35.000 dólares.

0 0

Un abogado ha emitido una advertencia sobre una elaborada estafa de clonación de voz mediante IA que engañó a su propio padre hasta casi entregarle 35.000 dólares.

Los estafadores se hicieron pasar por Jay Shooster, de 34 años, y llamaron a su padre Frank, de 70, para convencerlo de que su hijo había sufrido un grave accidente automovilístico, había sido arrestado y necesitaba dinero para la fianza.

Frank, un abogado jubilado, aterrorizado, dijo que estaba convencido de que era su hijo “histérico” y que estaba profundamente traumatizado por la estafa.

Jay se postula para el Distrito 91 de Florida en la Cámara de Representantes y cree que los estafadores lograron crear una voz falsa a partir de su anuncio de campaña televisivo de 15 segundos.

Jay Shooster, de 34 años, ha emitido una advertencia sobre una elaborada estafa de clonación de voz mediante IA que engañó a su padre hasta casi entregarle 35.000 dólares.
Cortesía de Jay Shooter/SWNS

Frank, también de Boca Raton, Florida, que estaba visitando a su hija en Nueva York en ese momento, dijo: “Justo cuando llegó el auto de Uber para llevarme a la ciudad de Nueva York, recibí una llamada telefónica.

“Era mi hijo, Jay. Estaba histérico, pero reconocí su voz de inmediato.

“Dijo que había tenido un accidente, se rompió la nariz, le dieron 16 puntos y estaba bajo custodia policial porque dio positivo en un análisis de alcoholemia.

“Le echó la culpa al jarabe para la tos que había tomado antes”.

El imitador, haciéndose pasar por Jay, le suplicó a Frank que no le contara a nadie sobre la situación el 28 de septiembre.

Momentos después, un hombre que se identificó como 'Mike Rivers', un supuesto abogado, llamó y dijo que Jay necesitaba una fianza en efectivo de 35.000 dólares para evitar ser encarcelado durante varios días.

La estafa se intensificó cuando 'Rivers' le ordenó a Frank que pagara el bono a través de una máquina de criptomonedas, una solicitud poco convencional que aumentó las sospechas de Frank.

“Comencé a sospechar cuando me dijo que fuera a una máquina Coinbase en Winn-Dixie”, dice Frank. “No entendí cómo eso era parte del proceso legal”.

Frank finalmente se dio cuenta de que algo andaba mal después de que su hija, la hermana gemela de Jay, Lauren, y su amiga descubrieron que las estafas de clonación de voz mediante IA iban en aumento.

Finalmente colgó el teléfono.

“Es devastador recibir ese tipo de llamada”, dijo Frank.

“Mi hijo ha trabajado muy duro y yo estaba fuera de mí, pensando que su carrera y su campaña podrían estar en ruinas”.

Jay, que ha presentado estafas como esta como abogado, se sorprendió al encontrarse como objetivo.

Los estafadores se hicieron pasar por Jay Shooster, de 34 años, y llamaron a su padre Frank, de 70, para convencerlo de que su hijo había sufrido un grave accidente automovilístico, había sido arrestado y necesitaba dinero para la fianza, según los informes. Cortesía de Jay Shooter/SWNS

Especuló que los estafadores podrían haber clonado su voz de su reciente anuncio de campaña, que se había transmitido por televisión pocos días antes del incidente.

“He estado prestando atención a la IA y sus efectos en los consumidores, pero nada te prepara para cuando te suceda”, dice Jay.

“Hicieron su investigación. No usaron mi número de teléfono, lo que encaja con la historia de que estaba en la cárcel sin acceso a mi teléfono”.

La sofisticación de la estafa dejó a Jay atónito.

“Todo lo que se necesita son unos segundos de la voz de alguien”, dijo.

“La tecnología es tan avanzada que fácilmente podrían haber sacado mi voz de mi anuncio de campaña de 15 segundos.

“También hay otros videos míos en línea, por lo que podrían haber usado cualquiera de ellos para clonar mi voz”.

Jay aboga por cambios en la regulación de la IA para evitar que este tipo de estafas dañen a otros.

“Hay tres soluciones políticas clave que necesitamos”, afirma. “En primer lugar, las empresas de IA deben rendir cuentas si se hace un mal uso de sus productos.

“En segundo lugar, las empresas deberían exigir autenticación antes de clonar la voz de cualquier persona. Y en tercer lugar, el contenido generado por IA debe tener una marca de agua, para que sea fácilmente detectable, ya sea una voz clonada o un vídeo falso”.

Si es elegido miembro de la Cámara de Representantes de Florida, Jay planea tomar medidas contra el creciente uso indebido de la tecnología de inteligencia artificial, incluidas las estafas de clonación de voz.

Su objetivo es introducir una legislación que responsabilice a las empresas de inteligencia artificial por su uso indebido, garantizando que implementen las salvaguardias necesarias, como la autenticación de voz y las marcas de agua.

Jay aboga por cambios en la regulación de la IA para evitar que este tipo de estafas dañen a otros. Cortesía de Jay Shooter/SWNS

“Necesitamos crear regulaciones claras para evitar que ocurran este tipo de delitos”, dice Jay. “No se trata sólo de tecnología: se trata de proteger a las personas del trauma y el daño financiero que pueden resultar de estas estafas.

“Quiero impulsar requisitos más estrictos para los desarrolladores de IA para garantizar que sus herramientas no se utilicen de forma maliciosa”.

A medida que la tecnología de inteligencia artificial evoluciona rápidamente, Jay y Frank esperan que su historia sirva como advertencia para que otros se mantengan alerta.

“Esto demuestra lo importante que es mantener la calma y pensar las cosas detenidamente”, señala Frank. “Hay que escuchar y hacer preguntas si algo no cuadra. Estafas como esta son cada vez más sofisticadas, pero no podemos bajar la guardia”.

Fuente

Deja un comentario