window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

OpenAI reveló que los datos de tu cuenta de ChatGPT quedaron expuestos tras un hackeo masivo

El ataque de los cibercriminales estuvo dirigido a una compañía llamada Mixpanel que se encargaba de la analítica para OpenAI

OpenAI dio a conocer a sus usuarios sobre el hackeo a través de un comunicado publicado en su sitio web

OpenAI dio a conocer a sus usuarios sobre el hackeo a través de un comunicado publicado en su sitio web Crédito: Shutterstock

OpenAI confirmó que fue víctima indirecta de un ciberataque contra Mixpanel, su proveedor de analítica web, que expuso datos limitados de algunos usuarios de su plataforma de API, pero no afectó chats, prompts ni claves de API. El incidente golpea justo en el centro del debate actual sobre la seguridad de los datos en servicios de IA masivos, aunque OpenAI insiste en que su propia infraestructura no fue vulnerada. 

¿Qué pasó exactamente?

Según el comunicado oficial, el problema no fue un hackeo directo a los servidores de OpenAI, sino un ataque a Mixpanel, la empresa que usaba para medir el uso de su plataforma de desarrolladores (la API de OpenAI). El 9 de noviembre de 2025, Mixpanel detectó que un atacante había logrado acceso no autorizado a una parte de sus sistemas y exportó un conjunto de datos relacionado con varios clientes, entre ellos OpenAI. 

Tras investigar internamente, Mixpanel compartió con OpenAI el detalle del dataset afectado el 25 de noviembre, lo que permitió a la compañía analizar qué datos de sus usuarios aparecían allí y evaluar el impacto real. A partir de ese momento, OpenAI decidió eliminar Mixpanel de todos sus servicios en producción y lanzar una revisión de seguridad más amplia de sus proveedores, elevando las exigencias para socios y terceros que procesan datos vinculados a sus productos. 

En la práctica, el incidente se puede resumir así:

  • El ataque ocurrió en la infraestructura de Mixpanel, no en los sistemas de OpenAI.
  • El atacante consiguió exportar un dataset con información analítica de algunos usuarios de la API de OpenAI.
  • Una vez notificada, OpenAI dejó de usar Mixpanel en producción y empezó a avisar directamente a las cuentas potencialmente afectadas.

¿Qué datos se filtraron? (y cuáles no)

La parte “menos mala” de la historia es que lo expuesto fue información de perfil y telemetría, no el contenido de las interacciones con los modelos de OpenAI. El dataset robado incluía datos que se usan típicamente para analítica de producto, vinculados a cuentas de la API, no a las conversaciones normales en ChatGPT. 

De acuerdo con lo que han detallado OpenAI y varios reportes de seguridad, la información potencialmente expuesta incluye: 

  • Nombre asociado a la cuenta de API.
  • Correo electrónico vinculado a esa cuenta.
  • Ubicación aproximada derivada del navegador (ciudad, estado y país).
  • Sistema operativo y navegador usados para acceder a la plataforma.
  • Sitios web de referencia (referrers).
  • Identificadores de organización o de usuario asociados a la cuenta.

En paralelo, OpenAI subraya que no se vieron comprometidos algunos de los datos más sensibles que suelen preocupar a los usuarios: 

  • No se filtraron chats, prompts ni respuestas generadas por los modelos.
  • No se expusieron solicitudes a la API ni datos de uso detallados.
  • No se filtraron contraseñas, credenciales, claves de API ni métodos de pago.
  • No hubo exposición de documentos de identidad o información gubernamental.

Esto significa que el riesgo directo de que alguien tome control de tu cuenta solo por esta brecha es bajo, pero sí se abre la puerta a ataques dirigidos usando tu nombre, email y contexto técnico (por ejemplo, saber que usas la API de OpenAI para ciertos proyectos). 

¿Cómo te puede afectar y qué deberías hacer?

Lo primero: si solo usas ChatGPT “normal” (web o app) y nunca has tocado la API ni la consola de desarrolladores, OpenAI y varias fuentes de seguridad indican que no estás entre los afectados por este incidente. El foco está en quienes tienen cuentas en la plataforma de API (platform.openai.com) y cuyos datos analíticos pasaban por Mixpanel. 

Para estos usuarios, el riesgo principal no es que alguien vea lo que tus modelos generan, sino que se use la información filtrada para campañas de phishing y robo de credenciales más creíbles. Con nombre, correo, ubicación aproximada y el dato de que usas la API de OpenAI, un atacante puede construir correos o mensajes que parecen venir de la propia compañía o de tu organización técnica, pidiéndote “verificar” tu cuenta o tus claves. 

Si trabajas con la API de OpenAI, estas son algunas medidas sensatas a tomar ahora mismo:

  • Desconfiar de cualquier correo o mensaje que diga venir de OpenAI y pida contraseñas, códigos de verificación o claves de API; la empresa recuerda que nunca debería pedirse esa información por email o SMS.
  • Revisar que los mensajes relacionados con el incidente provengan de dominios oficiales de OpenAI y acceder siempre escribiendo la URL manualmente en el navegador.
  • Activar y reforzar el uso de autenticación en dos pasos (2FA) en tus cuentas críticas, incluidas las de OpenAI y de los proveedores que se integran con sus modelos.
  • Supervisar accesos inusuales o nuevas integraciones en tu organización si gestionas un entorno multiusuario con la API.

OpenAI sostiene que, dado que no se filtraron contraseñas ni claves, no es estrictamente necesario rotar credenciales solo por este incidente, aunque muchos equipos de seguridad probablemente optarán por hacerlo como medida preventiva extra. La compañía asegura que sigue investigando, monitorizando posibles usos maliciosos de los datos y ampliando las auditorías a terceros para reducir el riesgo de que un caso así se repita. 

Más allá de este episodio concreto, el caso Mixpanel–OpenAI vuelve a poner sobre la mesa un tema incómodo: aunque una empresa cuide mucho su infraestructura, la cadena siempre se rompe por el eslabón más débil, y muchas veces ese es un proveedor externo. En un ecosistema donde cada servicio SaaS se apoya en otros, este tipo de brechas “indirectas” van a ser cada vez más relevantes para cualquiera que construya productos sobre IA generativa.

Sigue leyendo:
Hackers están sacando provecho de la IA para mejorar sus ataques cibernéticos
Hackers están utilizando un mecanismo silencioso para poder robar tus contraseñas y dinero
OpenAI reveló cuáles serán los pasos para lograr la superinteligencia

En esta nota

OpenAI
Contenido Patrocinado