Microsoft filtró por error más de 38 TB de información confidencial

La información publicada por error incluye datos confidenciales como claves privadas y contraseñas de usuarios de Microsoft

Microsoft

Los empleados de Microsoft publicaron por error contenido que incluía contraseñas y claves de acceso  Crédito: Shutterstock

La inteligencia artificial (IA) es una fuerza impulsora detrás de muchas innovaciones tecnológicas, y Microsoft es una de las empresas líderes en este campo. Sin embargo, incluso los gigantes tecnológicos a veces se enfrentan a desafíos de seguridad cibernética. En un incidente sorprendente, los investigadores de inteligencia artificial de Microsoft expusieron accidentalmente decenas de terabytes de datos confidenciales, incluidas claves privadas y contraseñas. ¿Cómo sucedió esto y cuáles son las lecciones que podemos aprender de ello?

La historia comienza con un repositorio de GitHub perteneciente a la división de investigación de inteligencia artificial de Microsoft. Este repositorio proporcionaba código fuente abierto y modelos de IA para el reconocimiento de imágenes. Los usuarios fueron instruidos a descargar modelos desde una URL de Azure Storage. Sin embargo, esta URL estaba configurada incorrectamente, otorgando permisos en toda la cuenta de almacenamiento en lugar de permisos de solo lectura. Aquí radica el primer error.

Información confidencial

Los datos expuestos incluían 38 terabytes de información confidencial, que incluía copias de seguridad personales de las computadoras de dos empleados de Microsoft. Además, se filtraron contraseñas de servicios de Microsoft, claves secretas y más de 30,000 mensajes internos de Microsoft Teams de cientos de empleados. Este incidente no solo plantea preocupaciones sobre la seguridad de los datos, sino también sobre la privacidad de los empleados.

La cuenta de almacenamiento no quedó expuesta directamente. En cambio, los desarrolladores de Microsoft AI incluyeron un token de firma de acceso compartido (SAS) demasiado permisivo en la URL. Los tokens SAS son utilizados por Azure para crear vínculos compartibles que otorgan acceso a los datos de una cuenta de almacenamiento. En este caso, el token SAS se configuró incorrectamente, lo que permitió el acceso no autorizado a datos sensibles.

Respuesta rápida 

Microsoft actuó con rapidez una vez que se informó del problema y revocó el token SAS. La respuesta oportuna y transparente es esencial para mitigar el daño potencial.

Este incidente sirve como recordatorio de que, a medida que la IA sigue avanzando y manejando cantidades masivas de datos, la seguridad debe ser una prioridad constante. Las empresas deben estar preparadas para adaptarse y fortalecer sus medidas de seguridad a medida que evoluciona la tecnología.

La IA tiene un inmenso potencial, pero como señala Ami Luttwak, cofundador y director de tecnología de Wiz, “las enormes cantidades de datos que manejan requieren controles y salvaguardas de seguridad adicionales“. Este incidente subraya la necesidad de abordar la seguridad de datos de manera proactiva en el mundo digital en constante cambio.

Sigue leyendo:
Revelado el nuevo diseño que tendrá la próxima generación de Xbox Series X
Microsoft ya se encuentra en las fases finales del desarrollo de sus nuevas gafas de realidad virtual para el Ejército
Microsoft patentó una mochila con Inteligencia Artificial: ¿qué se sabe de este dispositivo?

En esta nota

error filtracion Microsoft
Contenido Patrocinado
Enlaces patrocinados por Outbrain