Los expertos explican que para clonar una voz basta con pocos segundos de audio real. Un mensaje de voz, un video de redes sociales o una historia de Instagram pueden ser suficientes para que un software de IA reproduzca el tono, la forma de hablar y hasta las muletillas de una persona. Con eso, los delincuentes arman un audio falso o incluso una llamada simulada que resulta casi imposible de detectar para quien está del otro lado.
Para evitar caer en esta nueva trampa, los especialistas recomiendan desconfiar siempre de pedidos urgentes de dinero, cortar la comunicación y volver a llamar al número real del familiar. También se sugiere establecer una palabra clave entre familiares para confirmar identidades y jamás transferir dinero sin verificar la situación por otra vía. En caso de sospecha o estafa consumada, es fundamental realizar la denuncia inmediata y comunicarse con el banco para intentar frenar la operación.
Mientras la tecnología avanza, los delincuentes también se modernizan, y esta nueva estafa con Inteligencia Artificial ya se perfila como una de las más peligrosas del 2026 por su rapidez y por lo difícil que resulta detectarla.