OpenAI prepara su nuevo modelo para ciberseguridad

OpenAI prepara su nuevo modelo para ciberseguridad

El nuevo modelo especializado buscará proteger empresas e infraestructuras, aunque su despliegue plantea dudas sobre el control del acceso a herramientas avanzadas

OpenAI lanzará en los próximos días GPT-5.5-Cyber, una versión especializada de su modelo GPT-5.5 diseñada para tareas avanzadas de ciberseguridad. El acceso inicial será restringido a lo que la compañía denomina "defensores críticos de la ciberseguridad", con el propósito de reforzar la protección de empresas e infraestructuras frente a amenazas digitales.

El anuncio llega apenas una semana después de que Sam Altman presentara GPT-5.5 como su modelo más potente hasta la fecha. Esta nueva versión mejorada ejecuta tareas de forma autónoma y comprende con mayor precisión las intenciones de los usuarios. Ahora, la compañía acelera el despliegue de una variante especializada en seguridad informática.

Altman confirmó en la red social X que GPT-5.5-Cyber llegará con acceso limitado. OpenAI colaborará con el ecosistema tecnológico y con el Gobierno para establecer un modelo de acceso que garantice la confiabilidad en materia de ciberseguridad. La compañía aún no ha revelado detalles técnicos sobre las capacidades específicas del modelo ni los criterios que determinarán qué entidades podrán utilizarlo.

El objetivo es acelerar la protección de empresas e infraestructuras críticas. Sin embargo, OpenAI mantiene en reserva información sobre cómo funcionará exactamente el control de acceso y qué requisitos deberán cumplir las organizaciones interesadas.

La carrera por la IA aplicada a la ciberseguridad

El movimiento de OpenAI refleja una competencia creciente entre las grandes empresas de Inteligencia Artificial por desarrollar modelos capaces de detectar vulnerabilidades, reforzar defensas y automatizar análisis de seguridad. Anthropic presentó a comienzos de abril Claude Mythos, un modelo que identifica vulnerabilidades graves en sistemas operativos y navegadores dentro del Proyecto Glasswing. La compañía argumentó entonces que su objetivo era transformar la ciberseguridad mediante herramientas avanzadas de inteligencia artificial.

Pero estos modelos plantean riesgos evidentes. Las mismas capacidades que permiten localizar fallos críticos pueden convertirse en un arma si caen en manos equivocadas, especialmente cuando existe la posibilidad de automatizar ataques contra empresas con defensas débiles o explotar vulnerabilidades sin intervención humana directa.

Claude Mythos se lanzó en vista anticipada precisamente para reducir el riesgo de usos malintencionados. Aun así, un grupo de informáticos aseguró posteriormente haber accedido al modelo sin autorización. Este precedente refuerza las preocupaciones sobre cómo controlar el acceso a herramientas tan potentes.

Las compañías de IA enfrentan un dilema: desarrollar modelos cada vez más capaces para defender infraestructuras críticas, pero sin perder el control sobre quién puede usarlos y con qué fines. El despliegue de GPT-5.5-Cyber será un test de cómo OpenAI intenta resolver este equilibrio.