GPT-5.4-Cyber — это не отдельная модель с нуля, а дообученная версия GPT-5.4, которую OpenAI настроила специально под задачи защиты цифровых систем. Ключевое отличие от стандартной версии — сниженный порог отказов на запросы, связанные с профессиональной работой в области безопасности, и ряд новых возможностей, недоступных в базовой модели. Среди них — реверс-инжиниринг бинарного кода: модель способна анализировать скомпилированное программное обеспечение на предмет уязвимостей и признаков вредоносного поведения без доступа к исходному тексту программы. Это критически важно для специалистов, которые исследуют чужое или закрытое ПО.

Доступ к GPT-5.4-Cyber предоставляется через программу Trusted Access for Cyber (TAC), которую OpenAI запустила в феврале этого года, а теперь масштабирует. Программа строится на многоуровневой верификации: на базовом уровне — автоматическая проверка личности (KYC), на высших уровнях — партнёрские соглашения с организациями. Пользователи с наивысшим уровнем доступа получают GPT-5.4-Cyber. Такая архитектура позволяет OpenAI не принимать ручных решений о том, кому можно доверять, а автоматизировать оценку на основе объективных сигналов.

Параллельно с выходом новой модели компания отчиталась о результатах Codex Security — инструмента автоматического мониторинга кодовых баз, который вышел в закрытую бету шесть месяцев назад. С момента публичного запуска система помогла устранить более 3 000 критических и высокоприоритетных уязвимостей в реальных проектах. Codex Security не просто находит проблемы — он валидирует их и предлагает готовые исправления, что переводит работу с безопасностью из режима периодических аудитов в непрерывный процесс.

Модель умеет реверс-инжинирить бинарный код без доступа к исходникам — искать уязвимости и признаки вредоносного ПО.

Child safety blueprint > card image
Child safety blueprint > card image · Источник: OpenAI News

OpenAI выстраивает свою стратегию в кибербезопасности с 2023 года: тогда появилась программа грантов объёмом $10 млн и начались первые оценки киберпотенциала собственных моделей. Специализированное обучение безопасности стартовало с GPT-5.2, было расширено в GPT-5.3-Codex и GPT-5.4 — последний получил статус «высокого» уровня киберпотенциала по внутренней системе оценки рисков Preparedness Framework. Более 1 000 open-source проектов уже получили бесплатное сканирование через Codex for Open Source.

Логика, которую OpenAI формулирует открыто: цифровая инфраструктура была уязвима задолго до появления продвинутого ИИ, а сейчас атакующие уже используют языковые модели для поиска слабых мест. Ждать какого-то единственного порогового момента в развитии ИИ, чтобы начать выстраивать защиту, — значит опаздывать. Поэтому компания декларирует принцип масштабирования защитных инструментов синхронно с ростом возможностей моделей, а не после него.