La inteligencia artificial (IA) está abriendo puertas a múltiples mejoras en nuestra vida, pero también puede tener un uso malintencionado. Están empezando a proliferar engaños telefónicos a través de la clonación de voces mediante una IA y la creación de filtros que emulan una voz determinada.
No estamos hablando de un uso lúdico, como por ejemplo utilizar un filtro para hablar como un personaje de ficción, sino imitar la voz de una persona con un fin delictivo. Este uso ya es una realidad en países como Estados Unidos, donde se empiezan a registrar los primeros casos de suplantación de voz para, mediante un engaño, obtener un dinero.
Generalmente, el timo consiste en hacerse pasar por un familiar en apuros que solicita dinero. En algunas ocasiones, son unos secuestradores los que contactan con la víctima y le informan de que tienen a un familiar en su poder.
Para demostrarlo, uno de los delincuentes usa el filtro de voz para suplantar a la persona que supuestamente está secuestrada. La víctima dialoga brevemente con el falso secuestrado creyendo que se trata de la persona en cuestión. A partir de ahí, los secuestradores piden un rescate a cambio de mantenerlo a salvo y liberar al supuesto secuestrado.
Los delincuentes también optan por otra modalidad: se hacen pasar por abogados que informan a la familia de que un miembro está involucrado en un caso que necesita su defensa. Por sus servicios, reclaman una suma de dinero. A través del filtro de voz, los timadores se hacen pasar por el familiar necesitado de un abogado y transmiten la necesidad y urgencia del pago a la familia. ¿Pero cómo es posible clonar la voz de una persona?