La intel·ligència artificial (IA) està obrint portes a múltiples millores a la nostra vida, però també pot tenir un ús malintencionat. Estan començant a proliferar enganys telefònics a través del clonatge de veus mitjançant una IA i la creació de filtres que emulen una veu determinada.
No estem parlant d’un ús lúdic, com, per exemple, utilitzar un filtre per parlar com un personatge de ficció, sinó imitar la veu d’una persona amb una fi delictiva. Aquest ús ja és una realitat en països com els Estats Units, on es comencen a registrar els primers casos de suplantació de veu per, mitjançant un engany, obtenir diners.
Generalment, l’estafa consisteix a fer-se passar per un familiar en dificultats que sol·licita diners. En algunes ocasions, són uns segrestadors, els que es posen en contacte amb la víctima i l’informen que tenen un familiar segrestat.
Per demostrar-ho, un dels delinqüents utilitza el filtre de veu per suplantar la persona que suposadament està segrestada. La víctima dialoga breument amb el fals segrestat, creient que es tracta de la persona en qüestió. A partir d’aquí, els segrestadors demanen un rescat a canvi de mantenir la persona segrestada fora de perill i alliberar-la.
Els delinqüents també opten per una altra modalitat: es fan passar per advocats que informen la família que un membre està involucrat en un en cas que necessita la seva defensa. Pels seus serveis, reclamen una suma de diners. A través del filtre de veu, els estafadors es fan passar pel familiar necessitat d’un advocat i transmeten la necessitat i urgència del pagament a la família. Però, com es pot clonar la veu d’una persona?