Utilizan voz recreada por inteligencia artificial para fingir el secuestro de una niña y pedir rescate
Una madre de Arizona reveló que recibió una llamada fraudulenta con la voz de su hija generada por inteligencia artificial diciendo que fue secuestrada
La inteligencia artificial ha avanzado mucho en los últimos años y se espera que ayude a la humanidad en muchos aspectos, pero algunas personas usan esa tecnología para cometer fraudes como recrear la voz de una niña para estafar a los padres al asegurar que está secuestrada.
Recientemente, Jennifer DeStefano, una mujer residente de Arizona, recibió una llamada telefónica en la que pudo escuchar la supuesta voz de su hija mayor Brianna diciendo que la había estropeado, mientras otra voz de hombre le daba órdenes para que se acostara para luego decirle que tenía secuestrada a su hija.
De acuerdo con CNN, mientras los gritos de auxilio continuaban en el fondo, una voz masculina grave empezó a disparar órdenes: “Escuche. Tengo a tu hija. Si llamas a la policía o a quien sea, le voy a reventar algo tan lleno de droga. Voy a hacer lo que quiera con ella y luego la dejaré en México, y nunca la volverás a ver”.
“La voz sonaba igual que la de Brie, la inflexión, todo”, dijo DeStefano a CNN.
Tras una serie de acontecimientos caóticos y rápidos que incluyeron una petición de rescate de un millón de dólares, una llamada al 911 y un esfuerzo frenético por localizar a Brianna, se descubrió que el “secuestro” era una estafa, luego de que una desconcertada Brianna llamó a su madre para decirle que no sabía a qué venía tanto alboroto y que todo estaba bien.
Inteligencia artificial para clonar voces
El caso de DeStefano es uno de varios, que según las autoridades, han comenzado a registrarse en los últimos meses, en los que los estafadores usan voces clonadas de las supuestas víctimas para engañar con que están secuestradas para pedir dinero por su rescate.
El crecimiento de programas de inteligencia artificial baratos y accesibles ha permitido a los estafadores clonar voces y crear fragmentos de diálogo que suenan como sus supuestos cautivos.
De acuerdo con CNN, con la ayuda de software de inteligencia artificial, la clonación de voz puede hacerse por tan sólo 5 dólares al mes, lo que la hace fácilmente accesible a cualquiera, dijo Farid.
La Comisión Federal de Comercio advirtió el mes pasado que los estafadores pueden obtener clips de audio de las publicaciones de las víctimas en las redes sociales.
Seguir leyendo:
• Ahora la inteligencia artificial es usada para generar spam que ya inunda el internet
• VIDEO: supermodelo se convierte en la primera humana digital del mundo
• Inteligencia artificial ofrece mejores y más empáticos consejos que los médicos humanos