OpenAI presentó en Washington su modelo GPT-5.4-Cyber, caracterizado por brindar una localización de brechas de seguridad críticas. Lo hizo en un lugar muy poco común, reunido con una buena cantidad de profesionales de la ciberseguridad. De acuerdo con lo mencionado en el medio Axios, será un modelo puesto a disposición de agencias gubernamentales que tendrán que pasar por un filtro de seguridad estricto para poder validar cada una de las operaciones.
Es muy curioso debido a que el mismo Sam Altman ya advirtió que la IA tiene el potencial de convertirse en una herramienta peligrosa, a tal grado de poder perder el control de ella. Al parecer, quieren compartir esta gestión de riesgos con más entidades.
Agencias federales, gobiernos estatales y aliados de Five Eyes, los únicos con acceso a esta nueva herramienta
Reino Unido, Canadá, Australia y Nueva Zelanda también son parte de esta nueva presentación. El propósito que tiene OpenAI es tener una herramienta que pueda rastrear fallos graves en los sistemas informáticos que se heredan y que son difíciles de parchear. Los ataques evolucionan cada cierto tiempo y es precisamente por esto que deben tener cubiertos todos los frentes. Y no es mucha casualidad que Anthropic ya no sea parte de esto; no querían ceder a todo lo que pudieran solicitar los gobiernos; OpenAI decidió hacerse cargo sin pega alguna. Se supo que Anthropic tuvo un retraso en el lanzamiento de Mythos, su propio producto, por un asunto de riesgo y su ofrecimiento fue a 40 empresas, incluyendo dos entidades gubernamentales.

Fueron 50 profesionales de la ciberdefensa que se reunieron para poder revelar lo que OpenAI preparó con GPT-5.4-Cyber. El director de Asuntos Globales de OpenAI, Chris Lehane, indicó que este nuevo enfoque podría darle a más empresas acceso a herramientas avanzadas de IA. OpenAI tiene la intención de que se puedan asociar con departamentos gubernamentales para tener prioridades en casos cruciales, además de crear nuevos canales para compartir información entre sectores.
GPT-5.4-Cyber tendrá la prioridad de poder localizar fallos de seguridad que sean explotables en las redes internas de las agencias antes de que un tercero las pueda descubrir y aprovechar. La realidad es que son servidores que llevan años sin que se pueda certificar un verdadero uso seguro. ¿OpenAI tendrá la capacidad para ser un socio confiable en los gobiernos del mundo?