China roba IA de Estados Unidos: Anthropic denuncia ataque masivo
Tres laboratorios chinos de IA usaron 24,000 cuentas falsas para extraer capacidades de Claude y Anthropic alerta que esto puede tener fines militares
Anthropic asegura que detrás del ataque a su plataforma se encuentran DeepSeek, Moonshot y MiniMax, todas ellas compañías con sede en China Crédito: Shutterstock
La empresa de inteligencia artificial Anthropic hizo una denuncia sin precedentes: tres laboratorios chinos de IA —DeepSeek, Moonshot AI y MiniMax— ejecutaron ataques coordinados a escala industrial contra su plataforma para extraer ilegalmente las capacidades de su modelo Claude y utilizarlas para entrenar sus propios sistemas.
La técnica empleada se llama “destilación” (distillation, en inglés) y consiste en entrenar un modelo menos capaz usando las respuestas generadas por uno más avanzado. Aunque es una práctica legítima dentro de un mismo laboratorio para crear versiones más compactas de sus modelos, en este caso fue utilizada de forma ilícita por competidores extranjeros.
Ataque masivo con cuentas fraudulentas
Para llevar a cabo la operación, los tres laboratorios chinos crearon más de 24,000 cuentas fraudulentas y generaron más de 16 millones de intercambios con Claude, en una escala que Anthropic califica como sin precedentes en la historia de los ataques de este tipo. Todo esto ocurrió en violación directa de los términos de servicio de la compañía y de las restricciones de acceso regional vigentes.
Anthropic no ofrece acceso comercial a Claude en China continental. Sin embargo, los tres laboratorios encontraron la manera de evadir esa restricción a través de servicios proxy comerciales que revenden acceso a Claude y a otros modelos de frontera a escala. Estos servicios operan mediante lo que la empresa denomina “arquitecturas de clúster hidra”: redes masivas de cuentas fraudulentas que distribuyen el tráfico a través de su API.
Cuando Anthropic bloqueaba una cuenta, otra tomaba su lugar de inmediato. En un caso documentado, una sola red proxy administraba más de 20,000 cuentas fraudulentas simultáneamente, mezclando tráfico de destilación con solicitudes legítimas de clientes para dificultar su detección.
DeepSeek, Moonshot y MiniMax: tres ataques con un mismo objetivo militar
Cada uno de los tres laboratorios siguió un patrón distinto pero con un objetivo común: apropiarse de las capacidades más avanzadas de Claude. DeepSeek generó más de 150,000 intercambios enfocados en razonamiento, tareas de clasificación y, en particular, en la creación de “alternativas sin censura” a consultas políticamente sensibles, como preguntas sobre disidentes o líderes del Partido Comunista, con el evidente propósito de entrenar a sus propios modelos para esquivar temas prohibidos.
Moonshot AI, conocida por sus modelos Kimi, escaló la operación hasta superar los 3.4 millones de intercambios, enfocándose en razonamiento agéntico, uso de herramientas, desarrollo de agentes para uso de computadoras y visión computacional. Anthropic logró rastrear la campaña hasta llegar a los perfiles públicos de empleados senior del laboratorio, gracias al análisis de metadatos de las solicitudes.
El caso más grave fue el de MiniMax, responsable de más de 13 millones de intercambios —la mayoría del total registrado—, todos dirigidos a extraer capacidades de codificación agéntica y orquestación de herramientas. Lo más alarmante: Anthropic detectó el ataque mientras aún estaba activo, antes de que MiniMax lanzara el modelo que estaba entrenando, lo que permitió observar el ciclo completo del ataque en tiempo real. Cuando Anthropic lanzó una nueva versión de Claude durante la operación activa de MiniMax, el laboratorio chino reorientó casi la mitad de su tráfico hacia el nuevo sistema en menos de 24 horas.
Por qué este robo de IA podría tener consecuencias militares y de seguridad nacional
Anthropic advierte que el peligro va mucho más allá del ámbito corporativo o comercial. Los modelos destilados ilegalmente carecen de los mecanismos de seguridad que los laboratorios estadounidenses incorporan deliberadamente para evitar, por ejemplo, que su tecnología sea usada para desarrollar bioarmas o ejecutar ciberataques masivos.
La compañía señala de forma explícita que los laboratorios extranjeros que destilan modelos americanos pueden incorporar esas capacidades sin filtros en sistemas militares, de inteligencia y de vigilancia, lo que permitiría a gobiernos autoritarios desplegar IA de frontera para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva de poblaciones.
El riesgo se multiplica exponencialmente si esos modelos destilados se publican como código abierto, ya que las capacidades peligrosas quedarían fuera de cualquier control gubernamental. Según Anthropic, estos ataques también socavan directamente los controles de exportación de chips diseñados para mantener la ventaja tecnológica de Estados Unidos, ya que permiten a China cerrar esa brecha competitiva sin necesitar el hardware restringido.
Para hacer frente a esta amenaza, Anthropic está desarrollando sistemas de detección de patrones, compartiendo indicadores técnicos con otros laboratorios de IA y autoridades relevantes, y reforzando los controles de acceso en sus programas para startups e investigación, que fueron las vías más explotadas para crear cuentas fraudulentas. Sin embargo, la empresa reconoce que ninguna compañía puede resolver esto sola: se necesita acción coordinada urgente entre la industria tecnológica, los proveedores de nube y los legisladores.
Sigue leyendo:
• Anthropic aprovecha el Super Bowl para ridiculizar a ChatGPT y defender a Claude
• Anthropic vs. Pentágono: la tensa batalla por el uso militar de su IA Claude
• Anthropic resuelve demanda de derechos de autor con pago millonario