Clonar tu voz con IA ya toma 3 segundos, así te pueden suplantar sin llamarte
Las herramientas de clonado de voz han evolucionado a tal punto que ya pueden crear una replica de tu voz a partir de una muestra de pocos segundos
En el mercado existe más de una decena de apps que ofrece la posibilidad de clonar voces en segundos Crédito: Shutterstock
Clonar tu voz con Inteligencia Artificial dejó de ser un experimento de laboratorio. Hoy puede lograrse con apenas tres segundos de audio, un salto técnico que está cambiando el mapa del fraude digital. Investigadores de McAfee Labs documentaron que, en un caso, un fragmento de solo tres segundos permitió obtener un clon con un “voice match” de 85%, y que con más entrenamiento la similitud puede subir aún más, hasta 95% en sus pruebas internas.
¿Se puede clonar tu voz con solo 3 segundos de audio?
Sí, la tecnología de clonación de voz se ha refinado hasta el punto de arrancar con muestras mínimas, algo que antes requería grabaciones largas y controladas. En el análisis de McAfee, sus investigadores comprobaron que bastaron tres segundos para producir un clon con 85% de coincidencia de voz.
Ese umbral ya es peligroso porque no hablamos de “imitaciones robóticas”, sino de reproducciones lo suficientemente cercanas como para engañar en contextos cotidianos.
El problema no es solo la rapidez, también es el acceso. El reporte describe que existen más de una docena de herramientas disponibles en internet y que muchas requieren apenas un nivel básico de experiencia para usarse. Eso reduce la barrera de entrada y amplía el universo de posibles atacantes.
¿Cómo pueden los hackers clonar tu voz desde redes sociales sin hablar contigo?
El ángulo más alarmante es que los estafadores no necesitan “sacarte” una llamada ni convencerte de enviarles un audio por WhatsApp. Tu propia huella digital puede bastar. McAfee advierte que los criminales pueden abastecerse de material de voz con fuentes relativamente públicas, como videos en YouTube, reels en redes sociales o participaciones en podcasts.
Esa lógica encaja con el comportamiento real de los usuarios. El estudio citado por McAfee señala que una parte significativa de adultos comparte notas de voz al menos una vez por semana, lo que genera clips que pueden quedar expuestos a robo, filtración o recolección desde perfiles públicos. En otras palabras, un par de historias, un estado con audio, un video corto hablando a cámara o una nota de voz reenviada pueden convertirse en el “molde” para fabricar una llamada falsa que suene casi como tú.
Y el fraude no se queda en la demostración técnica. McAfee describe que estos ataques suelen imitar escenarios de urgencia y presión emocional. El objetivo es empujar a la víctima a actuar rápido antes de verificar.
¿Por qué la mayoría no distingue una voz real de una generada por IA?
Aquí aparece el dato que termina de explicar por qué esto escala tan rápido. Según la encuesta global de McAfee, 70% de las personas consultadas dijo no sentirse confiada de poder distinguir entre una voz clonada y una voz real. No es un matiz menor. Si la mayoría duda de su capacidad para detectar el engaño, la estafa deja de depender de una ejecución impecable y pasa a depender de algo más común, la confusión.
El mismo informe cuenta que, entre quienes reportaron haber recibido un mensaje atribuido a un clon de voz con IA, una proporción importante terminó perdiendo dinero, lo que confirma que el ataque ya dejó de ser hipotético. Además, estos fraudes pueden apoyarse en datos personales tomados de redes, por ejemplo viajes, familia, rutinas o relaciones. Eso hace que el guion parezca verosímil y la voz suene convincente.
En este nuevo escenario, el riesgo no se limita a celebridades o ejecutivos. Cualquier persona que publique contenido con su voz está potencialmente expuesta. Cuando tres segundos pueden abrir la puerta a un clon con 85% de precisión y siete de cada diez admiten que no sabrían diferenciarlo, la pregunta ya no es si la clonación de voz funciona. La pregunta es cuán preparada está la gente para el primer intento de estafa que le llegue al teléfono.
Sigue leyendo:
• Clonan voz de un youtuber para hacer una publicidad sin su permiso
• “Hola mamá”: la estafa de WhatsApp que clona la voz de tus hijos con IA
• Aumentan las estafas con Inteligencia Artificial: cómo protegerte