Los deepfakes de voz: una nueva forma de estafa con Inteligencia Artificial
Inteligencia artificial Noticias

Los deepfakes de voz: una nueva forma de estafa con Inteligencia Artificial

Los avances rápidos de la inteligencia artificial (IA) han despertado el interés de muchas personas, incluidos los ciberdelincuentes. En la actualidad, los estafadores están utilizando nuevas estrategias para hacerse pasar por titulares de cuentas bancarias y engañar a los operadores para que realicen transacciones de dinero. Una de estas estrategias recientes es el uso de deepfakes de voz.

El término deepfakes se refiere a interpretaciones vocales que imitan la voz de personas reales, incluso si estas personas nunca han pronunciado las palabras en cuestión. Los estafadores utilizan la IA para generar estas imitaciones de voz y engañar a sus víctimas. Aunque esta forma de estafa es relativamente nueva, ya ha llamado la atención de los expertos en ciberseguridad.

La accesibilidad a programas de IA generativa y la gran cantidad de muestras de voz disponibles en internet facilitan las operaciones de estos grupos criminales. Además, los datos robados que los piratas informáticos venden en el mercado digital negro aumentan aún más los riesgos. Las personas que suelen hablar en público o muestran su voz en redes sociales son especialmente vulnerables a este tipo de estafa.

Las llamadas con deepfakes de voz son todavía relativamente poco comunes, pero su prevalencia está aumentando. Los estafadores utilizan tecnología de texto a voz para escribir las palabras que quieren que el programa lea en su voz imitada. Sin embargo, este método es más fácil de detectar, ya que existen programas de seguridad que pueden identificar las señales de habla sintética.

Una de las mayores dificultades surge cuando los atacantes utilizan tecnología que transforma su voz en una imitación de la de sus víctimas potenciales. Existen aplicaciones que pueden hacer esto a partir de una muestra de audio de solo tres segundos. Aunque los robos exitosos mediante deepfakes de voz siguen siendo poco comunes, el constante avance de los mecanismos de seguridad significa que los ciberdelincuentes continúan buscando formas de romperlos.

Fuentes: New York Times.