Descubren más de 100 que crean desnudos con IA en Play Store y App Store: el lado oscuro de los deepfakes
Se calcula que en conjunto estas apps generaron casi $117 millones de dólares lo que demuestra lo lucrativo de este negocio
En total fueron identificadas más de 100 aplicaciones diseñadas para desnudar fotos de usuarios mediante IA Crédito: Shutterstock
Las tiendas de aplicaciones de Google y Apple acaban de protagonizar uno de los escándalos más preocupantes del año. Un nuevo informe del Tech Transparency Project (TTP) reveló que existen 55 aplicaciones en Google Play Store y 47 en la App Store de Apple cuyo único propósito es crear imágenes de desnudos utilizando inteligencia artificial. Sí, leíste bien, más de cien apps dedicadas exclusivamente a “desnudar” digitalmente a las personas, la mayoría enfocadas en mujeres.
Lo más alarmante es que estas aplicaciones han sido descargadas colectivamente más de 705 millones de veces en todo el mundo y han generado ingresos por $117 millones de dólares. Y aquí viene lo turbio: tanto Google como Apple reciben un porcentaje de esos ingresos, lo que significa que ambas compañías se han estado lucrando directamente de herramientas que permiten crear contenido sexual no consentido.
Esta revelación llega en un momento crítico, justo cuando la polémica por Grok, el chatbot de IA de Elon Musk en X (antes Twitter), sigue dando de qué hablar. Durante las últimas semanas, miles de usuarios utilizaron Grok para generar millones de imágenes deepfake sexualizadas, incluyendo contenido de menores de edad, lo que desató una ola de indignación global y llevó a la Comisión Europea a abrir una investigación formal contra la plataforma.
Apps diseñadas para desnudar a cualquier persona sin su autorización
El informe de TTP identificó varias aplicaciones problemáticas que operaban a plena luz del día en ambas tiendas. Una de las apps más descargadas es “AI Dress Up”, disponible en Google Play con más de 10 millones de descargas y calificada como “apta para todas las edades”, a pesar de que la investigación demostró que podía usarse para crear imágenes de desnudos. La ironía es brutal, una app clasificada como familiar que en realidad permite violaciones digitales de privacidad.
Otra aplicación mencionada en el estudio había sido descargada más de 500,000 veces y generado más de $100,000 en ingresos. Lo preocupante es que muchas de estas apps evadían los controles de contenido presentándose como herramientas de “entretenimiento” o “edición de fotos”, cuando su funcionalidad real era completamente diferente.
Tras las consultas de TTP y CNBC la semana pasada, Apple anunció que había eliminado 28 de las aplicaciones señaladas en el informe, aunque posteriormente reinstalaron dos de ellas después de que los desarrolladores presentaran versiones revisadas. Por su parte, Google suspendió “varias” de las apps identificadas, aunque no especificó el número exacto y continúa su investigación.
Lo cierto es que es altamente probable que la mayoría de estas aplicaciones sean eliminadas próximamente de ambos repositorios ahora que están bajo la lupa pública. Tanto Google como Apple tienen políticas explícitas que prohíben este tipo de contenido: Google Play prohíbe expresamente “apps que afirman desnudar a personas o ver a través de la ropa, incluso si están etiquetadas como apps de broma o entretenimiento”.
El contexto de Grok: cuando la IA se convierte en arma de violencia digital
Para entender la gravedad de este descubrimiento, hay que ponerlo en perspectiva con lo que pasó con Grok. El chatbot de IA de Elon Musk generó una crisis internacional cuando se descubrió que los usuarios lo estaban utilizando masivamente para crear deepfakes sexualizados de mujeres y, lo más grave, de menores de edad.
La ministra de Juventud e Infancia de España, Sira Rego, llegó a solicitar a la Fiscalía General que investigara a Grok por presuntos delitos de difusión de material de violencia sexual contra menores.
Mientras que la Comisión Europea inició una investigación formal contra X por posibles violaciones de la Ley de Servicios Digitales (DSA), con la amenaza de multas que podrían alcanzar el 6% de la facturación global de la compañía.
Grupos de defensa de derechos civiles y tres senadores demócratas estadounidenses exigieron públicamente a Apple y Google que eliminaran tanto X como Grok de sus tiendas de aplicaciones. La presión funcionó parcialmente: xAI anunció que implementaría “geobloqueos” para evitar que usuarios en ciertas jurisdicciones generaran imágenes de personas reales en bikini, ropa interior o atuendos similares.
El problema central es que estas herramientas permiten la creación de deepfakes sexuales sin el consentimiento de las víctimas, una forma de violencia digital que afecta desproporcionadamente a mujeres y niñas. Como expresó Henna Virkkunen, vicepresidenta de la Comisión Europea responsable de Soberanía Tecnológica: “Los deepfakes sexuales de mujeres y menores son una forma inaceptable de violencia y degradación”.
Lo más preocupante es que este no es un problema nuevo. Ya en 2024, 404 Media realizó una investigación similar que obligó a Apple a eliminar varias apps de generación de imágenes AI que permitían crear desnudos no consentidos. El hecho de que estas apps sigan reapareciendo demuestra que las medidas de control de Google y Apple son insuficientes.
Sigue leyendo:
• Elon Musk restringe Grok para evitar que genere imágenes de usuarios sin ropa
• Deepfake: “Pusieron mi cara en un video porno”
• La crisis del porno deepfake que afecta a las escuelas coreanas