Meta está usando tus fotos privadas para entrenar su IA
Meta lanzó una opción que les permite tener acceso a las fotos del carrete de sus usuarios utilizarlas en entrenar a sus modelos de IA

¿Estás dispuesto a permitir que Meta pueda utilizar tus fotografías para entrenar a su IA? Crédito: Shutterstock
Meta ha encendido alarmas tras descubrirse que está accediendo a las fotos no compartidas de tus carretes con el objetivo de “entrenar” su inteligencia artificial. Según un reciente informe, la app ha empezado a mostrar un mensaje emergente cuando el usuario publica una Story: si aceptas enviar tus imágenes al “cloud processing”, Meta subirá continuamente fotos de tu carrete a sus servidores, incluyendo las que nunca has compartido públicamente.
Esta función se presenta como una ayuda: collage de recuerdos, recapitulaciones automáticamente temáticas (cumpleaños, graduaciones), filtros de estilo vintage, todo generado por IA basándose en tus fotos privadas. Pero el detalle espinoso es que, al activarla, autorizas a Meta a analizar aspectos personales como rasgos faciales, objetos, fechas y ubicaciones, así como “retener y usar” estas imágenes sin mayor control del usuario.
Meta justifica que solo tú verás las sugerencias, que no utilizarán las imágenes para anuncios, y que puedes desactivar la subida en ajustes (y eliminar las fotos en 30 días). Pero ese mecanismo de “opt‑in” y “opt‑out” suena más a trampa que a beneficio real, ya que el usuario tiene que descubrir la función, activarla explícitamente y luego ocuparse de desactivarla si no le gusta.
Peor aún: Meta no es clara respecto a si esas fotos privadas sirven también para entrenar sus modelos generativos, como ya hace con las fotos públicas desde 2007. Mientras Google excluye fotos de Google Photos, Meta guardaría la puerta abierta para entrenar IA con cualquier foto que llegue a sus servidores.
¿Qué significa este acceso masivo a tus carretes?
En realidad, Meta ya ha entrenado sus modelos con todo lo que se publica públicamente desde 2007 en Facebook e Instagram. Han confirmado que eso incluye texto e imágenes sin límite temporal, siempre que fueran públicas y pertenezcan a usuarios adultos. El cambio actual es que ahora busca acceso a la otra mitad del iceberg: las fotos privadas, que nunca fueron destinadas al público.
Ese acceso encierra posibles riesgos muchos más graves:
- Privacidad facial extrema: Meta puede detectar tus rasgos y los de tus contactos en imágenes fuera del radar público.
- Información íntima revelada accidentalmente: fotos de reuniones familiares, tarjetas de embarque, vacaciones en casa.
- Modelos de IA entrenados con imágenes no deseadas que podrían usarse en sugerencias, filtros aplicados o incluso contenidos generados que te hagan sentir observado.
Así que cada vez que veas ese pop‑up de “activar cloud processing”, piensa: ¿vale medias docenas de sugerencias estéticas saber que Meta puede almacenar y analizar fotos no compartidas? Porque tras el laberinto de “opt‑in con brillo de IA” está un acceso sin revisores, sin transparencia, y con muchos interrogantes sobre cómo se usan esas imágenes a largo plazo.
Sigue leyendo:
• Meta quiere que los militares utilicen sus lentes de realidad aumentada con Inteligencia Artificial
• Meta está pagando hasta $50,000 al mes a creadores de contenido para que publiquen más en Instagram y Facebook
• Comisión Europea impone cuantiosas multas a Apple y Meta por prácticas monopólicas