Las estafas con inteligencia artificial crecen: así pueden clonar su voz y rostro para robar dinero

Los ciberdelincuentes ya utilizan inteligencia artificial para clonar voces y crear videollamadas falsas capaces de engañar incluso a usuarios experimentados

Infobae

Las estafas impulsadas por inteligencia artificial están creciendo a una velocidad sin precedentes y ya permiten a los delincuentes clonar voces, generar rostros falsos y realizar videollamadas deepfake en tiempo real para engañar a víctimas y robar dinero. Expertos en ciberseguridad, como ESET, alertan que estas herramientas, antes reservadas para laboratorios tecnológicos, hoy pueden utilizarse con aplicaciones gratuitas y apenas unos segundos de audio.


Uno de los mayores temores de las autoridades es la facilidad con la que ahora puede suplantarse la identidad de cualquier persona. Un mensaje de voz enviado por WhatsApp, un video publicado en redes sociales o una llamada grabada pueden ser suficientes para entrenar sistemas capaces de imitar la voz de alguien con gran precisión.

El fenómeno ya está provocando pérdidas millonarias en todo el mundo. Empresas de seguridad reportaron un aumento explosivo de fraudes vinculados con contenido generado por IA, mientras organismos internacionales como Interpol advierten que redes criminales están utilizando estas herramientas para multiplicar sus ataques.

Un hacker encapuchado trabaja en un escritorio con varias pantallas mostrando ediciones de imágenes de médicos.
Con el avance de la IA, las estafas por deepfake están alcanzando su punto máximo. (Imagen Ilustrativa Infobae)

Cómo funciona el clonaje de voz con IA

La clonación de voz se convirtió en una de las técnicas más utilizadas por los ciberdelincuentes. Los sistemas actuales necesitan apenas unos segundos de grabación para recrear el tono, la velocidad, las pausas y hasta las muletillas de una persona.

El resultado puede ser extremadamente convincente. Una víctima podría recibir una llamada aparentemente realizada por un familiar, un amigo o incluso un jefe de trabajo solicitando dinero urgente o información sensible.

La sofisticación alcanzó niveles preocupantes porque muchos modelos funcionan en tiempo real. Esto permite que el sistema responda preguntas, improvise conversaciones y adapte el tono emocional durante la llamada.
Un deepfake es utilizado como herramienta para cometer fraude digital mediante suplantación de identidad. (Imagen Ilustrativa Infobae)

Especialistas de Kaspersky explican que la combinación de inteligencia artificial y manipulación emocional está convirtiendo estos fraudes en uno de los mayores riesgos digitales actuales.

Los deepfakes ya se usan en videollamadas

La amenaza no se limita únicamente al audio. Los videos deepfake generados por IA también crecieron de manera acelerada durante los últimos años. Empresas de ciberseguridad reportaron que los incidentes vinculados a videos falsos aumentaron drásticamente durante 2025, impulsados por herramientas cada vez más accesibles y fáciles de utilizar.

Sin embargo, todas las personas presentes en pantalla eran recreaciones generadas por inteligencia artificial. Tras recibir instrucciones aparentemente legítimas, el trabajador autorizó transferencias millonarias antes de descubrir que había sido víctima de un fraude.

Las deepfake ahora también se pueden hacer por llamadas y en tiempo real. (Imagen Ilustrativa Infobae)

El caso mostró que los deepfakes ya no son simples videos editados, sino sistemas capaces de simular expresiones faciales, movimientos y conversaciones en vivo.

Las estafas románticas también evolucionaron

Otro de los delitos que más se transformó con la inteligencia artificial es el fraude romántico. Los especialistas llaman a esta nueva modalidad “pig butchering 2.0”, una evolución de las tradicionales estafas sentimentales utilizadas para convencer a las víctimas de invertir dinero en plataformas fraudulentas.

Las personas mayores aparecen entre los grupos más afectados. Autoridades y expertos detectaron un incremento significativo en las pérdidas sufridas por adultos mayores víctimas de llamadas falsas y engaños emocionales.

Un hombre solo en su habitación es víctima de una estafa con deepfake durante una videollamada en San Valentín. (Imagen Ilustrativa Infobae)

El phishing también cambió con la IA

La inteligencia artificial no solo está transformando llamadas y videos falsos. También cambió radicalmente los correos electrónicos de phishing. Durante años, muchos mensajes fraudulentos podían identificarse fácilmente por errores ortográficos, traducciones deficientes o frases poco naturales.

Ahora, los modelos de lenguaje generan textos prácticamente indistinguibles de los mensajes reales enviados por bancos, empresas tecnológicas o servicios oficiales. Esto dificulta enormemente detectar fraudes, incluso para usuarios con conocimientos avanzados de seguridad digital.

Por qué los expertos están preocupados

Lo que más inquieta a los especialistas es que crear deepfakes o clonar voces dejó de ser costoso o complejo. Actualmente existen aplicaciones gratuitas y herramientas disponibles en internet capaces de realizar estas tareas en minutos.

Además, en foros clandestinos se comercializan kits completos para generar identidades falsas, videos manipulados y campañas automatizadas de fraude.

Entradas populares