Advierten boom de estafas con IA: las más comunes y por qué son cada vez más efectivas
Las estafas con IA ya no son futuristas: clonación de voz, videos falsos y mensajes hiperrealistas están vaciando cuentas en EE.UU. Cómo prevenir.
Estafadores usan inteligencia artificial para imitar voces y generar llamadas de emergencia falsas. Crédito: Imagen creada con AI | Impremedia
“Escuché la voz de mi hija y entré en pánico“. En Los Ángeles, Laura M. recibió una llamada que todavía recuerda como “el momento más desesperante de su vida”. Le tiembla la voz mientras repasa una noche de terror: “Estaba llorando. Decía que había tenido un accidente y que necesitaba dinero urgente para evitar problemas legales. Era su voz, no tengo dudas. No era parecida: era igual”, se angustia.
El llamado duró menos de dos minutos. Un hombre tomó el teléfono y le dio instrucciones concretas para hacer una transferencia inmediata. La presión fue clave. “Me dijo que no corte, que no llame a nadie más, que cada minuto contaba. No lo dudé: transferí el dinero de inmediato. Todo lo que tenía”.
Minutos después, algo la hizo reaccionar y contactó a su hija a su teléfono. Ahí entendió todo: nunca había pasado nada. “Fue un golpe durísimo. Sentí que violaron algo muy íntimo, como si se hubieran metido en casa. Era su voz, exactamente su voz”, repasa.

Los casos se repiten en Estados Unidos y en muchos países de América Latina. Según coinciden diferentes alertas de la Federal Trade Commission (FTC) y el Federal Bureau of Investigation, sr vienen registrando un aumento de estafas con clonación de voz en todo Estados Unidos.
Eestafas con inteligencia artificial: un peligro en aumento
Las estafas con inteligencia artificial dejaron de ser una amenaza teórica y se convirtieron en un problema cotidiano en Estados Unidos. Según la FTC, las pérdidas por fraude superan los miles de millones de dólares al año, y una parte creciente está vinculada a herramientas de IA que permiten suplantar identidades con un nivel de realismo nunca visto.
El resultado: engaños más rápidos, más creíbles y mucho más difíciles de detectar.
Las estafas con IA más comunes en Estados Unidos
Según datos oficiales, las estafas que vienen creciendo en los últimos meses son muy diferentes en su modalidad.
Clonación de voz: el “secuestro virtual”
Una de las modalidades que más creció en 2024 y 2025. Los estafadores usan IA para replicar la voz de un familiar a partir de audios breves (por ejemplo, videos de redes sociales). Luego llaman a la víctima simulando una emergencia.
El guión es simple: “mamá, tuve un accidente”, “me detuvieron”, “necesito dinero urgente”. La presión emocional hace el resto.
La Federal Bureau of Investigation alertó que estos casos aumentaron con fuerza porque la tecnología necesaria es barata y accesible.
Claves del engaño:
- Urgencia extrema.
- Pedido de transferencia inmediata.
- Prohibición de verificar con otros familiares.
- Deepfakes y videos falsos de celebridades o CEOs.

Puedes ver: Nueva estafa en Florida: las autoridades advierten a los automovilistas
Inversiones falsas, promovidas por famosos
Otra estafa en expansión usa videos generados con IA (deepfakes) para promocionar inversiones falsas, sobre todo en criptomonedas. Aparecen figuras conocidas (empresarios, políticos o celebridades) recomendando plataformas que en realidad son un fraude.
El problema es que el nivel de realismo ya supera el ojo promedio. La Securities and Exchange Commission advirtió que estos esquemas están detrás de muchas estafas de inversión recientes.
Señales de alerta:
- Promesas de ganancias rápidas y seguras.
- Videos virales fuera de medios confiables.
- Links a plataformas desconocidas.
- Phishing con IA (correos y mensajes hiperrealistas).
El phishing no es nuevo, pero la IA lo volvió mucho más efectivo. Ahora los mensajes no tienen errores gramaticales, imitan el tono de bancos o empresas reales y se personalizan con datos públicos.
Los estafadores incluso pueden mantener conversaciones coherentes en tiempo real. Empresas como Microsoft y Google alertaron que los ataques automatizados con IA están creciendo en volumen y sofisticación.
Puedes ver: Las 6 estafas más comunes al invertir en oro y plata
Suplantación de identidad laboral: fraudes en empleo remoto
Otra tendencia fuerte en EE.UU. son las ofertas de trabajo falsas generadas con IA. El engaño suele seguir este patrón:
- Contacto por LinkedIn o email.
- Entrevista automatizada o por chat.
- Oferta rápida sin proceso real.
- Pedido de dinero (equipamiento, trámites) o datos bancarios.
La Better Business Bureau reportó un aumento significativo en este tipo de fraude. Los casos se multiplican. “Vi el video y parecía legítimo, no dudé”, cuenta Daniel R., de San Antonio, Texas. Profesional, 42 años, cayó en una estafa que combinó inteligencia artificial y redes sociales.
Todo empezó con un video en Facebook donde un supuesto empresario reconocido recomendaba una plataforma de inversión en criptomonedas. “Era un video muy bien hecho. No parecía falso. La persona hablaba claro, mostraba números, resultados… todo muy convincente”, cuenta.
El enlace llevaba a una web con diseño profesional, gráficos en tiempo real y atención al cliente por chat. “Al principio gané dinero. O eso parecía. Podía ver cómo subía mi saldo. Eso me convenció de invertir más”.
El problema llegó cuando intentó retirar el dinero. “Me pedían pagar ‘impuestos’ y ‘comisiones’ para liberar los fondos. Ahí empecé a sospechar. Cuando dejé de pagar, desaparecieron”. ¿El resultado? Perdió más de 8.000 dólares.
Estafas románticas potenciadas con IA
Los clásicos “romance scams” ahora usan IA para crear perfiles más creíbles: fotos generadas (personas que no existen) y mensajes personalizados y constantes se unen a historias coherentes en el tiempo. El vínculo emocional se construye rápido y termina en pedidos de dinero. El combo parece fácil de detectar, pero cada es más pulido y eficiente. ¡Cuidado!
Por qué estas estafas funcionan mejor que antes
El cambio clave no es el delito, sino la herramienta. La IA permite escalar fraudes (miles de víctimas al mismo tiempo), automatizar conversaciones y reducir errores humanos, que hasta hace apenas meses delataban el engaño.
Además, el contenido público en redes sociales facilita el trabajo de los estafadores.
Cómo evitar caer en estafas con inteligencia artificial
- Desconfiar de la urgencia: Si alguien pide dinero inmediato, es una señal roja. Siempre verificar por otro canal.
- Verificar identidad fuera del mensaje: Si recibes una llamada o audio sospechoso, corta y llama vos al contacto real.
- No compartir datos sensibles: Nunca enviar claves, códigos o información bancaria por mensaje o llamada.
- Evitar links desconocidos: Ingresar siempre manualmente a sitios oficiales.
- Revisar fuentes de videos virales: Si un video promete dinero fácil, probablemente sea falso o manipulado.
- Proteger la información personal online: Cuanta más info pública haya, más fácil es para un estafador construir un engaño creíble.

El problema que viene (y por qué esto recién empieza)
Las autoridades coinciden en algo: esto no es un pico, es una tendencia. A medida que la IA mejora, los fraudes también. La Federal Trade Commission advierte que la educación del usuario es hoy la principal defensa. La tecnología va más rápido que la regulación.
Las estafas con inteligencia artificial no dependen de que la víctima sea ingenua, sino de que el engaño sea lo suficientemente realista. Y hoy lo es. En EE.UU., el fraude ya se profesionalizó con IA. La única ventaja del usuario es anticiparse: desconfiar, verificar y no actuar bajo presión.
Puedes ver:
Reportan aumento drástico de estafas a inmigrantes
Google lanzó una app que convierte tu voz en texto sin internet y es exactamente lo que necesitabas