window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

Anthropic filtró por error el código fuente de Claude Code y el daño podría ser enorme

Anthropic filtró más de 500,000 líneas de código fuente de Claude que permiten conocer a profundidad cómo funciona su modelo de IA

La filtración del código fuente de Claude pone en riesgo su ventaja competitiva con respecto a otros modelos de IA

La filtración del código fuente de Claude pone en riesgo su ventaja competitiva con respecto a otros modelos de IA Crédito: Shutterstock

Anthropic quedó en una posición muy incómoda porque parece haber filtrado por error parte del código fuente de Claude Code, su popular herramienta de programación asistida por IA, en lo que la propia empresa describió como un problema de empaquetado durante una publicación del software. 

Lo delicado es que no se trató de una simple metida de pata menor: la filtración incluyó unas 500,000 líneas de código repartidas en cerca de 1.900 archivos y llegó apenas días después de otra filtración relacionada con un modelo interno conocido como Mythos o Capybara.

¿Cómo se filtró el código fuente de Claude?

Anthropic subió a NPM —una plataforma usada por desarrolladores para distribuir y actualizar software— el código original completo de Claude Code, cuando en teoría solo debía publicar la versión final ya preparada para ejecutarse. Ese desliz habría dejado al descubierto el “harness” agente que rodea al modelo, es decir, la capa de software que le dice a Claude cómo usar herramientas externas, qué instrucciones seguir y qué barandillas internas respetar.

Anthropic confirmó que se filtró “algo de código fuente interno” dentro de una liberación de Claude Code y aseguró que no hubo exposición de datos sensibles de clientes ni de credenciales. La compañía también sostuvo que no fue una intrusión externa sino un error humano en el proceso de empaquetado, y dijo que ya estaba implementando medidas para evitar que vuelva a ocurrir.

El problema es que, aunque no se hayan filtrado los pesos del modelo Claude como tal, el material publicado sí permitió extraer información interna adicional de la base de código, según un profesional de ciberseguridad consultado por Fortune. Dicho de forma simple: no se escapó el “cerebro” completo de la IA, pero sí parte del manual de funcionamiento que ayuda a convertir ese cerebro en un producto útil, controlado y competitivo.

Por qué es un incidente tan grave

La razón principal por la que esto es grave es que Claude Code no es una herramienta secundaria dentro de Anthropic, sino quizá su producto más popular y uno que está teniendo una fuerte adopción en grandes empresas. Cuando se filtra el código que organiza su comportamiento agente, no solo queda expuesta una pieza técnica, sino una parte importante del valor práctico que diferencia al producto frente a otros asistentes de programación.

Al menos una parte de las capacidades de Claude Code no depende únicamente del gran modelo de lenguaje, sino de esa capa de software que lo conecta con herramientas, define instrucciones y aplica límites de seguridad. Si un competidor puede estudiar cómo funciona esa estructura, podría intentar reproducirla, mejorar sus propios productos o incluso lanzar alternativas de código abierto inspiradas en lo filtrado.

Ahí está uno de los costes más serios para Anthropic: no hace falta robar el modelo entero para erosionar su ventaja competitiva. En mercados tan rápidos como el de la IA, perder secretos sobre cómo empaquetas, controlas y haces más útil tu producto puede traducirse en presión comercial, menos diferenciación y una carrera más ajustada frente a rivales que no tuvieron que invertir lo mismo para llegar a conclusiones parecidas.

Además, el incidente toca una fibra especialmente sensible porque llega muy poco después de otra exposición accidental de casi 3,000 archivos, entre ellos un borrador de blog que describía un futuro modelo con riesgos inéditos de ciberseguridad. Que dos fallos de esta naturaleza ocurran con pocos días de diferencia dispara las dudas sobre los controles internos, los procesos de revisión y la disciplina operativa de una compañía que desarrolla sistemas cada vez más potentes.

No es la primera vez que Claude Code queda expuesto de manera accidental. Ya en febrero de 2025 una versión temprana del producto dejó ver código original y detalles sobre cómo se conectaba a sistemas internos, antes de que Anthropic retirara el software y tumbara el material público. Cuando un tropiezo se repite, deja de parecer una anécdota y empieza a verse como un problema estructural de control interno, y eso sí puede salirle muy caro a una empresa cuya promesa central es construir IA potente, pero también segura y confiable.

Sigue leyendo:
Claude 3.5 Sonnet: qué es capaz de hacer la nueva IA de Anthropic
Anthropic aprovecha el Super Bowl para ridiculizar a ChatGPT y defender a Claude
China roba IA de Estados Unidos: Anthropic denuncia ataque masivo

En esta nota

Inteligencia artificial
Contenido Patrocinado