Apple retrasa el polémico plan de escanear los iPhones en busca de imágenes de abuso infantil
Los defensores de la privacidad han expresado su preocupación por la posibilidad de que la tecnología sea utilizada por gobiernos autoritarios para espiar a los ciudadanos
Apple informó este viernes que retrasará su plan para revisar y escanear las bibliotecas de fotos de los usuarios en sus dispositivos a través del sistema iCloud al buscar imágenes de abuso infantil.
La compañía, dirigida por Tim Cook , dijo que tomará un tiempo adicional para conocer más opiniones de expertos y hacer mejoras antes de lanzar las nuevas características de seguridad para sus dispositivos.
Apple informó hace dos semanas que revisaría los dispositivos en busca de material ilegal de abuso sexual infantil, lo que suscitó una polémica entre sus críticos que incluso comentaron que la tecnología podría ser utilizad por gobiernos autoritarios para espiar a sus ciudadanos.
El sistema podrá cotejar las imágenes almacenadas en la cuenta de iCloud con una base de datos conocida como “CSAM”.
El sistema de Apple buscará huellas digitales que las compare con la base de datos CSAM.
“Cada foto subida a iCloud en Estados Unidos recibirá un ‘vale de seguridad’, que informará si es sospechosa o no”. Una vez que se marque un determinado número de fotos como sospechosas, Apple permitirá escanear todas las fotos, solo en caso de ser ilegales, serán enviadas a las autoridades, de acuerdo a un informe presentado por el periódico Financial Times.
Relacionado: Apple Wallet: usuarios de ocho estados podrán añadir identificación y licencia de conducir
El nuevo sistema de vigilancia podría ayudar a las autoridades en investigaciones criminales, pero podría abrir la puerta a un aumento en el número de demandas legales por vulnerar los datos de los usuarios.
El sistema CSAM debería de entrar en funcionamiento para los dispositivos, pero aún no está claro el tiempo que tomará la compañía para retomarlo.
Te podrán interesar las siguientes noticias: