window._taboola = window._taboola || []; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/mycodeimpremedia-laopinion/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

“Hola mamá”: la estafa de WhatsApp que clona la voz de tus hijos con IA

Los ciberdelincuentes están utilizando Inteligencia Artificial para poder realizar estafas a través de WhatsApp

Los estafadores utilizan la IA para clonar la voz de personas cercanas a sus víctimas

Los estafadores utilizan la IA para clonar la voz de personas cercanas a sus víctimas Crédito: Shutterstock

Una nueva modalidad de estafa está causando estragos a través de WhatsApp. Conocida como “Hola mamá”, esta técnica se basa en la suplantación de identidad utilizando inteligencia artificial, específicamente mediante la clonación de voz. Los ciberdelincuentes se hacen pasar por los hijos de sus víctimas y les envían mensajes de voz que suenan extremadamente reales, pidiéndoles dinero con alguna excusa urgente. Lo más alarmante es que muchas veces los padres, al reconocer la voz de su hijo o hija, caen sin sospechar que están siendo engañados.

Aunque parezca sacado de una película de ciencia ficción, este tipo de fraude ya ha sido reportado en múltiples países. La facilidad con la que la IA puede replicar voces reales ha abierto la puerta a un nuevo nivel de estafas personalizadas y emocionalmente manipuladoras.

¿Cómo funciona la estafa “Hola mamá”?

Todo comienza con la recolección de muestras de voz. Los estafadores necesitan apenas unos pocos segundos de audio para entrenar una herramienta de clonación de voz basada en inteligencia artificial. Estas muestras pueden obtenerse de mensajes de voz, videos de TikTok, entrevistas, transmisiones en vivo o cualquier otro contenido donde una persona hable de forma clara.

Una vez que logran clonar la voz, los delincuentes utilizan WhatsApp como canal para contactar a sus víctimas, por lo general madres o padres. El mensaje típico suele comenzar con un simple “Hola, mamá” o “Hola, papá”, seguido de una historia urgente que justifique la necesidad inmediata de dinero. Por ejemplo, dicen haber tenido un accidente, haber perdido el móvil o estar en problemas legales y necesitar una transferencia de forma urgente.

Este tipo de mensaje apela directamente a las emociones, provocando pánico o angustia en los padres, quienes, al reconocer la voz de su hijo, no dudan en ayudar. Y esa es precisamente la clave del engaño: la voz clonada suena tan real que no se cuestiona su autenticidad.

Además, los estafadores suelen enviar los mensajes desde números desconocidos, alegando que el teléfono anterior se perdió o se dañó. Esto refuerza la idea de que realmente se trata del hijo o hija en apuros, y dificulta que la víctima pueda verificar la situación por otro medio.

¿Qué tecnología hay detrás del fraude?

La clonación de voz mediante inteligencia artificial no es algo nuevo, pero hasta hace poco estaba restringida a entornos especializados. Hoy en día, cualquier persona con acceso a internet puede encontrar herramientas que permiten imitar voces con una precisión sorprendente. Algunas incluso ofrecen versiones gratuitas que generan resultados convincentes con muy poco material de muestra.

Estas herramientas analizan el tono, ritmo, acento y cadencia de la voz original para construir un modelo digital capaz de decir cualquier frase con esa misma voz. Es una tecnología que ha sido usada en la industria del cine, en videojuegos, e incluso en asistentes virtuales. Pero como suele ocurrir, lo que puede utilizarse con fines positivos también puede convertirse en un arma para estafar.

Lo preocupante es que esta técnica no requiere grandes conocimientos técnicos. Basta con tener una muestra de voz y acceso a una aplicación de clonación para crear audios falsos convincentes. Si además se tiene información pública de la persona suplantada —como el nombre de sus familiares, lugares que frecuenta o eventos recientes compartidos en redes sociales—, el engaño se vuelve aún más sólido.

Consejos para evitar caer en la estafa “Hola mamá”

Como en muchos otros casos de fraude digital, la prevención es la mejor defensa. Aquí algunos consejos prácticos:

  • Desconfía de números desconocidos: Si alguien te contacta diciendo ser tu hijo o hija desde un número nuevo, intenta verificarlo antes de responder.
  • Nunca hagas transferencias sin confirmar la identidad: Usa una videollamada o una llamada directa al número original para asegurarte de que realmente se trata de esa persona.
  • Establece una palabra clave secreta: Acuerda con tus familiares una palabra o código que puedan decir en situaciones de emergencia real, de modo que puedas identificar si se trata realmente de ellos.
  • Cuida la privacidad en redes sociales: No publiques información sensible, y si compartes audios o videos donde hablas, considera configurar tu perfil como privado.
  • Activa la verificación en dos pasos en WhatsApp y otras apps de mensajería: Esto añade una capa extra de seguridad que puede dificultar intentos de suplantación.

Este tipo de estafas no solo representan un peligro económico, sino también emocional. El hecho de que los estafadores manipulen la voz de nuestros seres queridos para engañarnos añade una capa de crueldad que las hace especialmente dañinas. Por eso es fundamental estar informados, hablar del tema con amigos y familiares, y mantenerse siempre alerta frente a cualquier mensaje sospechoso.

Sigue leyendo:
Nueva estafa en WhatsApp: una simple llamada podría robar tus contraseñas y tu dinero
Cómo detectar las estafas de ofertas de empleo en WhatsApp y qué hacer para evitarlas
Nuevo método de estafa puede robar tu cuenta de WhatsApp con tan solo una videollamada

En esta nota

estafa WhatsApp
Contenido Patrocinado