Windows Recall vuelve a quedar en evidencia y confirma los peores temores sobre la privacidad
La función de capturas de pantalla automática de Windows llamada Recall puede ser aprovechada por hackers para violar tu privacidad
Desde su lanzamiento la función Recall ha sido vista con desconfianza por parte de los usuarios Crédito: Shutterstock
Windows Recall vuelve a quedar mal parado. Lo que Microsoft vendió como una memoria fotográfica para encontrar cualquier cosa que hayas visto en tu PC, puede convertirse en un vector de ataque para los hackers.
Los peores temores de privacidad de muchos usuarios se han visto confirmados luego de que un investigador demostró que esas capturas automáticas pueden ser extraídas y eso abre la puerta a ataques mucho más serios de lo que a la compañía le gustaría admitir.
Recall y el problema de origen
Desde el primer anuncio, Recall sonó como una idea peligrosa disfrazada de comodidad. La función toma capturas de pantalla de la actividad del usuario para construir una especie de historial consultable con IA, lo que ya de por sí generó rechazo por el nivel de exposición que implica. El problema no era solo filosófico o de privacidad; también era técnico, porque centralizar tanto contenido sensible en un solo sistema convierte a esa base de datos en un premio enorme para cualquiera con malas intenciones.
Microsoft pasó meses intentando corregir la narrativa y endurecer la seguridad de Recall. La empresa lo volvió opt-in, añadió cifrado, integración con Windows Hello y un enclave de seguridad basado en VBS para proteger los datos capturados. Pero el punto clave es que todo ese rediseño no eliminó el miedo original: si la función sigue guardando una copia tan detallada de tu vida digital, siempre habrá una forma de intentar sacar provecho de ella.
La demostración de Hagenah
Aquí entra Alexander Hagenah un experto en ciberseguridad, que ya había señalado fallos graves en la versión original de Recall y ahora volvió a la carga con una herramienta llamada TotalRecall Reloaded.
Según su investigación, el “vault” o bóveda de datos sí existe, pero el problema está en que la barrera de confianza se rompe antes de tiempo y permite que un proceso malicioso se cuelgue del flujo legítimo de autenticación. En la práctica esto significa que una vez que el usuario pasa por Windows Hello, la herramienta puede extraer todo lo que Recall haya capturado.
Ese detalle resulta clave pues no estamos hablando solo de una curiosidad académica ni de una hipotética debilidad teórica, sino de una vía concreta para automatizar el acceso a capturas, metadatos y texto extraído por el sistema. Hagenah sostiene además que su herramienta puede operar discretamente en segundo plano, activar la línea de tiempo de Recall y forzar el aviso de autenticación para luego seguir adelante con la extracción. O sea, lo que Microsoft prometía como un entorno blindado termina viéndose como un sistema demasiado confiado en su propia arquitectura.
Qué pueden hacer los atacantes
El punto más preocupante es el abanico de posibilidades que se abre si un atacante logra aprovechar este comportamiento. Recall puede contener mensajes, correos, documentos, contexto de navegación, marcas de tiempo y actividad de aplicaciones, todo mezclado en un perfil bastante íntimo del usuario. Eso significa que el riesgo no se limita a “ver pantallazos”, sino a reconstruir hábitos, conversaciones y piezas sensibles de información que normalmente quedarían dispersas en distintas apps.
En ese escenario, un malware bien diseñado podría intentar pasar desapercibido, esperar a que el usuario autentique y luego extraer datos sin levantar alertas obvias. Microsoft insiste en que el comportamiento observado entra dentro de los controles previstos y que no existe una violación de la barrera de seguridad. Pero la crítica de Hagenah apunta justo a lo contrario: si la protección puede ser rodeada por un proceso que “acompaña” la sesión del usuario, entonces la defensa real es mucho más frágil de lo que parece.
La mala idea se confirma
Por eso mucha gente siente que Recall nunca dejó de ser una mala idea. Incluso cuando Microsoft intentó pulirla, el concepto siguió siendo el mismo: registrar demasiado, demasiado cerca del usuario, demasiado a fondo. Y cuando una función así depende de promesas de seguridad para sobrevivir, cualquier demostración práctica de acceso indebido golpea directo en el corazón del proyecto.
La lección en este tipo de casos es que si una herramienta necesita vigilar tanto para funcionar, también ofrece demasiado valor a quien quiera abusar de ella. Recall no solo reaviva la discusión sobre privacidad; también muestra que la seguridad no se arregla únicamente con cifrado o biometría si la superficie de ataque sigue siendo tan amplia. Y sí, los usuarios que desconfiaban desde el inicio no estaban exagerando: sus temores tenían fundamentos técnicos.
Lo que queda por delante
Microsoft todavía puede insistir en que no hay una vulnerabilidad formal, sino un comportamiento acorde al diseño. Pero esa defensa se vuelve cada vez más difícil de sostener cuando un investigador demuestra que la extracción automática de datos es viable y que el sistema sigue quedando expuesto a escenarios que parecen sacados de un manual de abuso.
En un momento en que la privacidad ya es un tema sensible para cualquier usuario, Recall vuelve a quedar como símbolo de una obsesión de la industria por integrar funciones con IA en todo, incluso cuando el costo en confianza es altísimo.
Si Microsoft quiere rescatar esta idea, necesita algo más que parches y discursos. Necesita demostrar, de manera contundente, que las capturas de pantalla de Recall no pueden convertirse en una mina de oro para atacantes, porque mientras eso siga en duda, la función seguirá oliendo a problema.
Sigue leyendo:
• Cómo hacer capturas de pantalla en Windows 11
• El truco en Windows para poder grabar tu pantalla sin usar aplicaciones
• Paso a paso: cómo encontrar dónde Windows guarda las contraseñas