Las estafas con inteligencia artificial crecen: así pueden clonar su voz y rostro para robar dinero
Los ciberdelincuentes ya utilizan inteligencia artificial para clonar voces y crear videollamadas falsas capaces de engañar incluso a usuarios experimentados
InfobaeLas estafas impulsadas por inteligencia artificial están creciendo a una velocidad sin precedentes y ya permiten a los delincuentes clonar voces, generar rostros falsos y realizar videollamadas deepfake en tiempo real para engañar a víctimas y robar dinero. Expertos en ciberseguridad, como ESET, alertan que estas herramientas, antes reservadas para laboratorios tecnológicos, hoy pueden utilizarse con aplicaciones gratuitas y apenas unos segundos de audio.
El fenómeno ya está provocando pérdidas millonarias en todo el mundo. Empresas de seguridad reportaron un aumento explosivo de fraudes vinculados con contenido generado por IA, mientras organismos internacionales como Interpol advierten que redes criminales están utilizando estas herramientas para multiplicar sus ataques.

Cómo funciona el clonaje de voz con IA
La clonación de voz se convirtió en una de las técnicas más utilizadas por los ciberdelincuentes. Los sistemas actuales necesitan apenas unos segundos de grabación para recrear el tono, la velocidad, las pausas y hasta las muletillas de una persona.
El resultado puede ser extremadamente convincente. Una víctima podría recibir una llamada aparentemente realizada por un familiar, un amigo o incluso un jefe de trabajo solicitando dinero urgente o información sensible.

Especialistas de Kaspersky explican que la combinación de inteligencia artificial y manipulación emocional está convirtiendo estos fraudes en uno de los mayores riesgos digitales actuales.
Los deepfakes ya se usan en videollamadas
La amenaza no se limita únicamente al audio. Los videos deepfake generados por IA también crecieron de manera acelerada durante los últimos años. Empresas de ciberseguridad reportaron que los incidentes vinculados a videos falsos aumentaron drásticamente durante 2025, impulsados por herramientas cada vez más accesibles y fáciles de utilizar.
Uno de los casos más impactantes ocurrió en Hong Kong. Un empleado de la firma de ingeniería Arup participó en una videollamada donde creyó hablar con directivos reales de la compañía, incluido el director financiero.
Sin embargo, todas las personas presentes en pantalla eran recreaciones generadas por inteligencia artificial. Tras recibir instrucciones aparentemente legítimas, el trabajador autorizó transferencias millonarias antes de descubrir que había sido víctima de un fraude.

El caso mostró que los deepfakes ya no son simples videos editados, sino sistemas capaces de simular expresiones faciales, movimientos y conversaciones en vivo.
Las estafas románticas también evolucionaron
Otro de los delitos que más se transformó con la inteligencia artificial es el fraude romántico. Los especialistas llaman a esta nueva modalidad “pig butchering 2.0”, una evolución de las tradicionales estafas sentimentales utilizadas para convencer a las víctimas de invertir dinero en plataformas fraudulentas.
La diferencia es que ahora los delincuentes pueden aparecer en videollamadas usando rostros creados por IA, interactuar en tiempo real y construir vínculos emocionales mucho más creíbles. Las pérdidas económicas asociadas a este tipo de fraude alcanzaron cifras multimillonarias a nivel global durante los últimos años, según reportes internacionales.
Las personas mayores aparecen entre los grupos más afectados. Autoridades y expertos detectaron un incremento significativo en las pérdidas sufridas por adultos mayores víctimas de llamadas falsas y engaños emocionales.

El phishing también cambió con la IA
La inteligencia artificial no solo está transformando llamadas y videos falsos. También cambió radicalmente los correos electrónicos de phishing. Durante años, muchos mensajes fraudulentos podían identificarse fácilmente por errores ortográficos, traducciones deficientes o frases poco naturales.
Ahora, los modelos de lenguaje generan textos prácticamente indistinguibles de los mensajes reales enviados por bancos, empresas tecnológicas o servicios oficiales. Esto dificulta enormemente detectar fraudes, incluso para usuarios con conocimientos avanzados de seguridad digital.
Por qué los expertos están preocupados
Lo que más inquieta a los especialistas es que crear deepfakes o clonar voces dejó de ser costoso o complejo. Actualmente existen aplicaciones gratuitas y herramientas disponibles en internet capaces de realizar estas tareas en minutos.
Además, en foros clandestinos se comercializan kits completos para generar identidades falsas, videos manipulados y campañas automatizadas de fraude.


