window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

OpenAI lanza GPT-5.4-Cyber para reforzar la ciberdefensa y retar a Claude Mythos

GPT-5.4-Cyber está disponible de forma limitada para expertos en ciberseguridad por lo que el público general no tendrá acceso a él, al menos de momento

La nueva versión de ChatGPT fue especialmente diseñada para su uso en el terreno de la ciberseguridad

La nueva versión de ChatGPT fue especialmente diseñada para su uso en el terreno de la ciberseguridad Crédito: Shutterstock

OpenAI acaba de mover una pieza importante en ciberseguridad con GPT-5.4-Cyber, una versión ajustada de su modelo para defensa digital que llega justo cuando la competencia en IA especializada se está poniendo seria. 

La apuesta de la compañía no es solo lanzar un modelo más capaz, sino abrir el acceso de forma controlada para equipos verificados que necesitan investigar vulnerabilidades, analizar malware y responder más rápido ante incidentes.

Qué es GPT-5.4-Cyber

GPT-5.4-Cyber es una variante de GPT-5.4 afinada para tareas de ciberseguridad defensiva, con menos restricciones que un modelo generalista cuando se usa en contextos legítimos de investigación y protección. OpenAI lo describe como una pieza pensada para empujar a sus modelos más capaces hacia flujos de trabajo de seguridad, pero sin convertirlos en herramientas abiertas para abuso o ataques. En la práctica, esto significa que la empresa quiere que el modelo sea más permisivo con analistas y defensores verificados, pero con barreras extra para evitar usos indebidos.

El contexto importa mucho pues OpenAI amplía su programa Trusted Access for Cyber para llevar estas capacidades a miles de defensores verificados y cientos de equipos que protegen software crítico. Ese programa funciona como una especie de filtro de confianza basado en identidad, credenciales y supervisión, precisamente para dar acceso a gente que realmente trabaja en defensa digital. Es una jugada bastante clara para competir con propuestas más cerradas del sector, como la que se le atribuye a Anthropic con Claude Mythos.

Capacidades de defensa

La capacidad más llamativa es la ingeniería inversa de binarios, algo clave cuando no tienes acceso al código fuente y aun así necesitas entender qué hace un programa compilado. OpenAI también señala que el modelo puede ayudar a analizar comportamientos sospechosos, malware y vulnerabilidades en software ya empaquetado, lo que lo vuelve útil para tareas reales de respuesta a incidentes y auditoría técnica. En otras palabras, no es una IA para “charlar sobre seguridad” y ya; está pensada para meterse en el barro técnico.

Otra mejora importante es que el modelo impone menos restricciones en preguntas y exploraciones propias del trabajo defensivo, lo que reduce esos falsos rechazos que suelen frustrar a investigadores legítimos. OpenAI también enmarca esta versión como una herramienta para acelerar la detección y la corrección de fallos, algo que encaja con su idea de que la IA puede reforzar la defensa si se entrega a las manos adecuadas. La empresa incluso ha acompañado este despliegue con créditos de API para equipos de defensa, buscando empujar su uso en entornos reales y no solo en demos.

Acceso y competencia

El acceso a GPT-5.4-Cyber no es abierto para todo el mundo. OpenAI lo está liberando primero entre participantes verificados de Trusted Access for Cyber, con opciones para usuarios individuales, empresas y un nivel invitacional para investigadores que necesitan capacidades más permisivas. Esa estructura de acceso por niveles es importante porque intenta equilibrar dos cosas que normalmente chocan: potencia defensiva y control del riesgo.

Frente a Claude Mythos, la estrategia de OpenAI parece más expansiva, pero no menos vigilada. Mientras otros actores endurecen el acceso por miedo al uso malicioso, OpenAI insiste en que la defensa también necesita escala, y que limitar demasiado estas herramientas puede dejar a equipos legítimos trabajando con una mano atada. El mensaje de fondo es bastante directo: la ciberseguridad moderna ya no se mueve solo con humanos, sino con sistemas de IA capaces de revisar, correlacionar y acelerar tareas que antes tomaban horas o días.

Impacto en el sector tecnológico

Para el sector, esto puede ser un cambio relevante porque normaliza el uso de IA de frontera en defensa digital y no solo en productividad general. Si OpenAI consigue mantener el equilibrio entre acceso y control, podría convertir GPT-5.4-Cyber en una especie de copiloto avanzado para analistas, equipos rojos y defensores de infraestructura crítica. Y eso, sinceramente, no es poca cosa en un momento en el que las amenazas van más rápido que muchos equipos humanos.

OpenAI no quiere quedarse fuera del mercado de seguridad, justo cuando la IA empieza a convertirse en una capa más de la defensa empresarial. La compañía está apostando por una idea muy concreta: si la IA va a ser útil en ciberseguridad, mejor que lo sea desde sistemas verificados y supervisados, antes de que otros definan el estándar. En ese sentido, GPT-5.4-Cyber no solo es una herramienta nueva, sino una declaración de intenciones bastante ambiciosa.

Sigue leyendo:
Mythos de Anthropic: Powell, Bessent y bancos se reúnen para analizar su amenaza
Anthropic presenta Mythos, un modelo de IA demasiado peligroso para el público
Anthropic creó una IA tan peligrosa que no puede lanzarla al público: así nació el Project Glasswing

En esta nota

ChatGPT OpenAI
Contenido Patrocinado