window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

Anthropic vs. Pentágono: la tensa batalla por el uso militar de su IA Claude

Anthropic quiere evitar que Claude su modelo de IA pueda ser utilizado en armas autónomas o mecanismos de vigilancia masiva

Anthropic busca conservar poder de veto por motivos éticos, reputacionales y de seguridad

Anthropic busca conservar poder de veto por motivos éticos, reputacionales y de seguridad Crédito: Shutterstock

Anthropic y el Pentágono están en negociaciones tensas por el alcance del uso de Claude en entornos militares. Defensa quiere margen para emplearlo en “all lawful purposes”, mientras la compañía insiste en mantener límites duros vinculados a armas autónomas y vigilancia masiva. El choque no es solo contractual, también es filosófico y gira en torno a quién decide hasta dónde llega una IA de propósito general cuando entra en la cadena de valor de la seguridad nacional.

¿Qué está negociando Anthropic con el Pentágono sobre Claude?

El punto de partida es un contrato de alrededor de $200 millones de dólares que busca integrar Claude en operaciones y flujos de trabajo del Departamento de Defensa. Ese acuerdo ahora se percibe en riesgo por la disputa sobre las condiciones de uso. Según los reportes, el Pentágono presiona para que los proveedores de IA, Anthropic incluida, acepten que sus modelos puedan usarse para “all lawful purposes”, una fórmula amplia que, en la práctica, reduce la capacidad del fabricante para vetar casos específicos.

Las negociaciones se desarrollan en un clima político marcado por la frustración de algunos funcionarios de la administración Trump, que consideran que Anthropic muestra una “resistencia” excesiva frente a usos militares más extensos. El desacuerdo ganó protagonismo tras informaciones que vincularon a Claude con una operación dirigida a capturar al entonces presidente venezolano Nicolás Maduro mediante un socio industrial, Palantir. Ese episodio elevó la sensibilidad interna sobre cómo se emplea el modelo en misiones concretas. Anthropic ha rechazado la idea de que esté discutiendo operaciones específicas con el Departamento de Guerra y sostiene que el debate gira en torno a políticas de uso y salvaguardas.

Por qué Anthropic no acepta el “all lawful purposes”

La discrepancia central es que “legal” no siempre equivale a “aceptable” dentro de la política corporativa de una empresa que se presenta como enfocada en la seguridad. En declaraciones recogidas por medios estadounidenses, un portavoz de Anthropic enmarca la discusión en dos fronteras que consideran innegociables. La compañía no quiere habilitar armas totalmente autónomas ni facilitar vigilancia doméstica masiva mediante su modelo.

Esa postura encaja con los documentos públicos de la empresa sobre casos de alto riesgo, donde se describen restricciones y requisitos para usos sensibles. Entre esos límites se incluyen restricciones vinculadas con el seguimiento de personas sin consentimiento y con ciertas aplicaciones de gestión del campo de batalla. 

En el plano contractual, todo se traduce en un pulso por el control. El Pentágono intenta definir el uso final de la tecnología amparado en que se ajusta a la ley, mientras Anthropic busca conservar poder de veto por motivos éticos, reputacionales y de seguridad.

También existe un componente práctico que pesa en la decisión. Una cláusula tan amplia como “all lawful purposes” abre la puerta a usos secundarios no anticipados, a que otras agencias compartan o reempaquen el mismo sistema y a que Claude termine integrado en plataformas donde participe de manera directa o indirecta en decisiones de daño físico o en esquemas de vigilancia a gran escala. 

Desde la perspectiva de Anthropic, ese riesgo no se corrige de forma sencilla después de la firma, ya que una vez que el modelo entra en los flujos operativos se vuelve costoso, políticamente delicado y técnicamente complejo revertir su despliegue o auditar ese uso en detalle.

Sigue leyendo:
Claude 3.5 Sonnet: qué es capaz de hacer la nueva IA de Anthropic
Anthropic aprovecha el Super Bowl para ridiculizar a ChatGPT y defender a Claude
CEO de Spotify reveló que las nuevas funciones de la app han sido desarrolladas con IA

En esta nota

Inteligencia artificial Pentágono
Contenido Patrocinado