window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

Google y el Pentágono llegan a acuerdo para que su IA tenga acceso a material clasificado

El acuerdo entre Google y el Pentágono no ha sido bien recibido por algunos empleados de la compañía que se oponen al uso militar de la IA

El acuerdo entre Google y el Pentágono permitirá que Gemini sea utilizado con fines militares

El acuerdo entre Google y el Pentágono permitirá que Gemini sea utilizado con fines militares Crédito: Shutterstock

Google habría dado un paso que vuelve a encender la discusión sobre IA, defensa y límites éticos con un acuerdo con el Pentágono para que sus modelos puedan utilizarse en entornos clasificados, una decisión que ya estaría generando malestar entre empleados de la compañía. El movimiento, además, recuerda bastante a la ruta que Anthropic había seguido hasta hace poco con Claude en usos vinculados al gobierno y a la seguridad nacional.

Google entra más de lleno en defensa

El informe apunta a que Google habría aceptado poner su IA al servicio de redes clasificadas del Pentágono, lo que abre la puerta a tareas sensibles dentro del aparato de seguridad estadounidense. En términos simples, esto no significa que la IA “lea secretos” por su cuenta, sino que podría operar dentro de sistemas donde circula información reservada y apoyar procesos de análisis, clasificación o asistencia técnica. Ese salto cambia bastante la conversación sobre el papel de las grandes tecnológicas en defensa.

La noticia también importa porque Google no es una empresa cualquiera en este terreno. Durante años ha intentado presentarse como una compañía centrada en productos masivos, consumo y nube, pero cada vez se ve más empujada hacia contratos gubernamentales de alto nivel. Y cuando esa expansión toca material clasificado, el debate deja de ser solo comercial y pasa a ser político, ético y reputacional.

Acuerdo con el Pentágono genera molestia dentro de Google

Lo más llamativo de este caso no es solo el acuerdo, sino la reacción interna. Varios empleados habrían expresado incomodidad por la posibilidad de que la tecnología de la empresa termine asociada con usos militares o de inteligencia, sobre todo en un contexto en el que la IA ya despierta dudas sobre vigilancia, automatización de decisiones y posibles abusos. No es una crítica menor: para parte del personal, el problema no es trabajar con el gobierno, sino cruzar una línea que consideran demasiado delicada.

Ese malestar recuerda episodios previos en la industria, como las protestas internas que Google enfrentó en otras etapas de colaboración con el sector de defensa. La diferencia ahora es que la conversación ocurre en un momento mucho más sensible, porque la IA generativa ya no es una promesa futura: es una herramienta potente, rápida y cada vez más integrada a flujos de trabajo críticos.

¿Google quiere reemplazar a Anthropic?

La comparación con Anthropic tiene sentido porque Claude también había sido usado en escenarios gubernamentales y de seguridad, aunque con intentos públicos de poner límites a ciertos usos. Ese detalle es clave: no se trata solo de quién vende la tecnología, sino de qué tipo de tareas permite y bajo qué condiciones. En ambos casos, el punto de fricción está en el acceso a información sensible y en la posibilidad de que modelos avanzados trabajen dentro de entornos controlados por el Estado.

La diferencia, al menos en el discurso, es que Anthropic había intentado marcar restricciones más claras sobre aplicaciones militares especialmente delicadas. Google, en cambio, con este acuerdo, aparece mucho más dispuesto a meterse de lleno en el ecosistema de defensa, incluso si eso le trae críticas internas y dudas externas. Y claro, en un mercado donde OpenAI, xAI y otros actores también buscan espacios en el sector público, quedarse afuera tampoco parece una opción muy realista.

Aquí no se discute solo un contrato. se discute el futuro de la relación entre las big tech y el aparato militar de Estados Unidos. Para el Pentágono, tener acceso a modelos de IA de primera línea significa ganar velocidad, capacidad de análisis y ventaja estratégica. Para Google, significa abrir una nueva vía de negocio, ganar peso institucional y no quedar rezagada frente a sus rivales.

Pero el costo reputacional puede ser alto. Si una parte importante de la plantilla cree que la compañía está moviéndose hacia un terreno incompatible con sus valores, la tensión interna puede crecer. Y si a eso se suma la percepción pública de que la IA está entrando cada vez más en áreas militares, el resultado es una imagen mucho más compleja de la que Google suele querer proyectar. La gran pregunta ya no es si la inteligencia artificial llegará al corazón de la defensa, sino qué tan lejos están dispuestas a ir las empresas que la construyen.

Al final, este acuerdo refuerza una idea bastante clara y es que la frontera entre IA comercial y uso militar se está desdibujando rápido. Y Google, quiera o no, acaba de ponerse mucho más cerca de esa línea.

Sigue leyendo:
El Pentágono estima que la guerra con Irán ha costado hasta el momento $25,000 millones de dólares
El Pentágono solicita cerca de $55,000 millones de dólares para reforzar su ofensiva militar con drones
El Pentágono solicita al Congreso formalizar el cambio de nombre del Departamento de Defensa

En esta nota

Google Inteligencia artificial Pentágono
Contenido Patrocinado