OpenAI amplía su programa de Acceso Confiable para Ciberseguridad con GPT-5.4-Cyber, una versión especializada en defensa digital con menos restricciones para proveedores, organizaciones e investigadores verificados que necesiten realizar tareas avanzadas como ingeniería inversa binaria.
OpenAI ha presentado GPT-5.4-Cyber, una variante de su modelo GPT-5.4 diseñada específicamente para ciberseguridad defensiva. El acceso está limitado a proveedores de seguridad, organizaciones e investigadores verificados, dentro de la ampliación del programa de Acceso Confiable para Ciberseguridad (TAC) que la compañía lanzó en febrero. Con este movimiento, OpenAI refuerza su apuesta por herramientas especializadas para la defensa digital y el análisis de amenazas como malware y vulnerabilidades de software.
La nueva versión incorpora menos restricciones que otros modelos de uso general cuando se trata de funciones relacionadas con ciberseguridad. OpenAI justifica esa mayor permisividad argumentando que está pensada para profesionales acreditados que trabajan en tareas defensivas y necesitan capacidades más amplias para el análisis técnico.
Entre las funcionalidades destacadas figura la ingeniería inversa binaria. Esta capacidad permite examinar programas y archivos ejecutables sin acceso al código fuente, con el objetivo de detectar comportamientos maliciosos, vulnerabilidades o indicios de compromiso en el software analizado.
El programa TAC nació con un sistema de verificación automatizada de identidad para usuarios vinculados al ámbito de la ciberseguridad, con la intención de reducir barreras de acceso en este sector. OpenAI planteó además entonces la colaboración con otras compañías para desarrollar modelos específicamente orientados a este tipo de usos.
Con GPT-5.4-Cyber, OpenAI busca posicionarse con más claridad en un nicho cada vez más competitivo, donde las grandes tecnológicas están afinando modelos adaptados a tareas concretas de seguridad informática. La compañía limita por ahora su acceso a perfiles verificados, una decisión coherente con la sensibilidad de las funciones que incorpora y con el hecho de que se trata de un modelo más abierto en capacidades que otros sistemas de IA convencionales.
El anuncio llega pocos días después de que Anthropic presentara Claude Mythos, otro modelo desarrollado para apoyar tareas de seguridad defensiva. Según la información facilitada, ese sistema tiene capacidad para atacar de forma autónoma a pequeñas empresas con defensas débiles.