¿Qué significa la designación de Anthropic como un riesgo de la cadena de suministro para la seguridad nacional?
La pelea entre Anthropic y el Pentágono ha llegado a un nuevo nivel luego de que la compañía se negara a permitir el uso de Claude sin restricciones
Anthropic ha dicho que no aceptará que Claude sea utilizado para vigilancia masiva doméstica Crédito: Shutterstock
El Pentágono elevó su disputa con Anthropic a un terreno que normalmente se reserva para amenazas sistémicas. El secretario de Defensa, Pete Hegseth, dijo en X que ordenó designar a la empresa como un “Supply-Chain Risk to National Security” (Riesgo de la cadena de suministro para la seguridad nacional), en el marco de la directiva presidencial para que el gobierno federal deje de usar tecnología de Anthropic.
En la práctica, esta etiqueta impide que contratistas, proveedores o socios que trabajan con el Departamento de Defensa mantengan vínculos comerciales con la compañía, porque podrían quedar fuera de contratos militares.
Anthropic, por su parte, sostiene que la pelea no nació de una falla técnica o un vínculo extranjero, sino de límites de uso pues la empresa afirma que el desacuerdo se estancó por dos excepciones que pidió para Claude, relacionadas con vigilancia masiva doméstica y armas totalmente autónomas.
La compañía también anticipó un choque legal pues han dicho que impugnarán en tribunales cualquier designación de “supply chain risk”, calificándola de acción sin precedentes y con consecuencias para el ecosistema de proveedores que dependen de reglas claras para vender al gobierno.
¿Cuál es el motivo de la pelea entre el Pentágono y Anthropic?
El Departamento de Defensa buscó un marco de “any lawful use” (cualquier uso legal) para Claude, mientras Anthropic intentó preservar dos salvaguardas específicas, lo que terminó detonando amenazas y luego la designación como Anthropic “supply-chain risk”.
En su explicación pública, Dario Amodei argumentó que permitir la vigilancia masiva doméstica sería incompatible con valores democráticos, y que los sistemas de IA de frontera aún no son lo suficientemente confiables para operar armas totalmente autónomas sin poner en riesgo a civiles y a los propios combatientes.
Amodei añadió un elemento que rara vez aparece en disputas comerciales tradicionales, dijo que el Departamento de Defensa habría planteado dos cartas de presión —la designación la posibilidad de invocar la Defense Production Act para forzar la remoción de salvaguardas—, una combinación que, según él, resulta internamente contradictoria.
También abre un precedente delicado para otras empresas de IA que negocian con Washington. Anthropic ha descrito la medida como peligrosa, lo que sugiere que el conflicto no terminará en un comunicado, sino en litigios y en nuevas cláusulas de cumplimiento que podrían redefinir qué significa “uso legal” cuando el cliente es el Estado.
Sigue leyendo:
• Donald Trump estalla en contra de la compañía de Inteligencia Artificial Anthropic
• China roba IA de Estados Unidos: Anthropic denuncia ataque masivo
• Anthropic vs. Pentágono: la tensa batalla por el uso militar de su IA Claude