Стандартные языковые модели блокируют запросы, похожие на инструкции по взлому, — это защищает от злоупотреблений, но мешает легитимной работе: исследователю безопасности нередко нужно воспроизвести известную уязвимость, чтобы написать патч. OpenAI решила эту проблему, разделив доступ к GPT-5.5 на три уровня. Публичная версия работает с прежними ограничениями. Средний уровень снимает часть фильтров для оборонительных задач и выдаёт код эксплойта вместе с документацией. GPT-5.5-Cyber — верхний уровень с наименьшими ограничениями: в демонстрационном сценарии модель не просто написала атакующий код, но и выполнила атаку против тестового сервера, захватила систему и вывела системную информацию.
Программа называется «Trusted Access for Cyber». Сейчас к ней допускаются только верифицированные специалисты, защищающие критическую инфраструктуру. OpenAI подчёркивает, что модель по-прежнему отказывается помогать с кражей паролей или атаками на сторонние системы без разрешения. С 1 июня 2026 года пользователи высшего уровня доступа обязаны подключить фишингоустойчивую аутентификацию. Партнёры запуска — Cisco, CrowdStrike, Palo Alto Networks, Cloudflare, Intel, Snyk и SentinelOne. Через платформу Codex Security отдельные разработчики крупных open-source проектов получают доступ со скидкой.
| Уровень доступа | Ограничения | Возможности | Аудитория |
|---|---|---|---|
| Публичный | Стандартные | Общие задачи, отказ на запросы об эксплойтах | Все пользователи |
| Средний | Ослабленные для оборонительных задач | Код эксплойта с документацией | Специалисты по безопасности |
| GPT-5.5-Cyber | Минимальные | Выполнение атаки на тестовый сервер, анализ вредоносного ПО | Верифицированные пентестеры критической инфраструктуры |
Главный вопрос отрасли — насколько такие модели реально опасны в руках злоумышленников. Британский AI Security Institute провёл серию симулированных атак на корпоративную сеть из 32 шагов: GPT-5.5 прошёл полную цепочку в 2 из 10 попыток, тогда как Mythos Preview от Anthropic — в 3 из 10. На отдельных экспертных задачах GPT-5.5 незначительно опережал конкурента. Источник издания Axios сообщил, что по общей эффективности поиска и эксплуатации уязвимостей обе модели примерно равны.
Доступ разбит на три уровня: публичный, средний с ослабленными фильтрами и полный для авторизованных тестировщиков
Anthropic придерживается более закрытого подхода: Mythos доступен примерно 40 организациям через программу Project Glasswing. OpenAI делает ставку на более широкую, но многоуровневую систему. Параллельно Белый дом, по имеющимся данным, обсуждает исполнительные указы, которые дадут правительству больше контроля над выпуском подобных моделей. Это означает, что регуляторное давление на сегмент «ИИ для кибербезопасности» будет нарастать вне зависимости от того, чья архитектура окажется эффективнее.
Ограничения подхода очевидны: верификация участников программы требует ресурсов, а граница между оборонительным и наступательным применением на практике размыта. OpenAI не раскрывает технических деталей того, как именно реализованы уровни ограничений, — это затрудняет независимую проверку заявленных гарантий безопасности.



