El clon de voz de IA es tan real que sus creadores dicen que sus “riesgos potenciales” podrían resultar demasiado peligrosos
Los expertos están sin palabras.
Los investigadores de Microsoft han desarrollado un programa de texto a voz con inteligencia artificial y un nivel de credibilidad humano.
Es tan realista que los creadores mantienen la interfaz de alta tecnología como “un mero proyecto de investigación” y aún no permiten que el público la utilice.
VALL-E 2, como se le llama, es el primer programa vocal de IA de su tipo que “logra la paridad humana”. Microsoft anunció. En otras palabras, no se puede diferenciar del habla de una persona.
Hasta ahora, los desarrollos más rudimentarios se pueden detectar como IA a través de pequeños matices en el lenguaje.
En particular, se dice que VALL-E 2 es nítido “incluso para oraciones que tradicionalmente son desafiantes debido a su complejidad o frases repetitivas”. según un artículo sobre el software.
También puede replicar una voz completamente después de escuchar tan sólo tres segundos de audio.
El programa también “supera los sistemas anteriores en cuanto a solidez del habla, naturalidad y similitud entre hablantes”, señalaron los investigadores.
Sus creadores tienen buenas intenciones de utilizarlo tanto a nivel médico (como ayuda para personas con afasia o discapacidades patológicas similares) como a nivel social.
En concreto, los investigadores presumen de que VALL-E 2 “podría utilizarse para aprendizaje educativo, entretenimiento, periodismo, contenidos de autoría propia, funciones de accesibilidad, sistemas de respuesta de voz interactiva, traducción, chatbot, etc.”.
Sin embargo, no ignoran el posible mal uso de una herramienta tan potente.
“Puede conllevar riesgos potenciales en el mal uso del modelo, como falsificar la identificación de voz o hacerse pasar por un hablante específico”.
Por este motivo, “no hay planes para incorporar VALL-E 2 a un producto ni para ampliar el acceso al público”.
La suplantación de voz, es decir, la creación de una voz falsa para llamadas telefónicas y otras interacciones a larga distancia, se está convirtiendo en un problema preocupante debido a la fácil accesibilidad de los programas de inteligencia artificial. Apple acaba de incluirlo entre las principales preocupaciones en medio de un aumento del phishing.
Los ancianos suelen ser el objetivo, pero algunas madres han recibido llamadas falsas diciendo que sus hijos fueron secuestrados para pedir un rescate, creyendo erróneamente que era su hijo el que estaba al otro lado de la línea.
Los expertos, como Lisa Palmer, estratega de la consultora AI Leaders, recomiendan que las familias y los seres queridos creen contraseñas verbales bien guardadas para compartir por teléfono en caso de duda.