INNOVACIÓN

Suplantación por voz a través de inteligencia artificial, la nueva estafa digital

Tiempo de Lectura: 5 minutos

Suplantación por voz a través de inteligencia artificial, la nueva estafa digital
Avatar

CaixaBank

05 Julio, 2023


La inteligencia artificial (IA) está abriendo puertas a múltiples mejoras en nuestra vida, pero también puede tener un uso malintencionado. Están empezando a proliferar engaños telefónicos a través de la clonación de voces mediante una IA y la creación de filtros que emulan una voz determinada.

No estamos hablando de un uso lúdico, como por ejemplo utilizar un filtro para hablar como un personaje de ficción, sino imitar la voz de una persona con un fin delictivo. Este uso ya es una realidad en países como Estados Unidos, donde se empiezan a registrar los primeros casos de suplantación de voz para, mediante un engaño, obtener un dinero.

Generalmente, el timo consiste en hacerse pasar por un familiar en apuros que solicita dinero. En algunas ocasiones, son unos secuestradores los que contactan con la víctima y le informan de que tienen a un familiar en su poder.

Para demostrarlo, uno de los delincuentes usa el filtro de voz para suplantar a la persona que supuestamente está secuestrada. La víctima dialoga brevemente con el falso secuestrado creyendo que se trata de la persona en cuestión. A partir de ahí, los secuestradores piden un rescate a cambio de mantenerlo a salvo y liberar al supuesto secuestrado.

Los delincuentes también optan por otra modalidad: se hacen pasar por abogados que informan a la familia de que un miembro está involucrado en un caso que necesita su defensa. Por sus servicios, reclaman una suma de dinero. A través del filtro de voz, los timadores se hacen pasar por el familiar necesitado de un abogado y transmiten la necesidad y urgencia del pago a la familia. ¿Pero cómo es posible clonar la voz de una persona?

Filtros que clonan la voz gracias a algoritmos

Los últimos avances en tecnología han habilitado servicios basados en inteligencia artificial que generan desde imágenes hasta sonidos, siguiendo unas instrucciones concretas. De esta manera, existen plataformas a las que puedes subir fragmentos de audio de una persona hablando y se genera un filtro que clona la voz de esa persona, coincidiendo en tono, timbre y vibración. Los algoritmos de la plataforma son capaces de detectar y medir cada pequeño parámetro de nuestra voz y reproducirlo.

Para conseguir grabaciones de voz de una persona, los delincuentes suelen recurrir a las redes sociales: YouTube o TikTok. Además, pueden servir de fuente de información para que los timadores recaben datos sobre una persona (su poder adquisitivo, su entorno, sus actividades, los nombres de los familiares y amigos, etc.) y utilizarlos en las conversaciones del engaño.

Acepto las condiciones de uso.