OpenAI предложила Еврокомиссии доступ к своей новой модели GPT-5.5 Cyber — об этом на пресс-брифинге сообщил официальный представитель Комиссии Томас Ренье. По его словам, доступ позволит регуляторам следить за развёртыванием модели и оперативнее реагировать на угрозы кибербезопасности. Переговоры с OpenAI уже идут и продолжатся на этой неделе.

Однако за дипломатичными формулировками скрывается неудобная реальность: ЕС располагает ИИ Act, Cyber Resilience Act и специализированным ИИ Office, но ни один из этих инструментов не даёт регуляторам права потребовать доступ к модели в принудительном порядке. Предложение OpenAI — добровольный жест, а не следствие регуляторного давления.

С Anthropic ситуация складывается иначе. Комиссия провела «четыре-пять встреч» с компанией по поводу модели Mythos — той самой, которая спровоцировала нынешнюю дискуссию о кибербезопасности ИИ. Итог переговоров Ренье описал осторожно: «С одной компанией у нас есть проактивное предложение доступа, с другой — хорошие переговоры, но мы не на той стадии, чтобы строить предположения о возможном доступе». На прямой вопрос журналиста Bloomberg, запрашивала ли Комиссия доступ к Mythos официально, Ренье ответа не дал.

Переговоры с Anthropic об аналогичном доступе к модели Mythos прошли 4–5 раундов без конкретного результата.

Claude Mythos Preview сейчас доступна крайне ограниченному кругу лиц: Anthropic передала её избранным технологическим партнёрам и компаниям в сфере кибербезопасности программы «Project Glasswing». Единственной государственной структурой, которой удалось протестировать модель напрямую, стал британский ИИ Security Institute — организация, не входящая в структуры ЕС.

Вопрос о том, как именно будет организован доступ для европейских ведомств, остаётся открытым. Журналисты Politico спросили, готовит ли Комиссия меры защиты на случай, если ИИ Office, ENISA или DG Connect получат доступ к модели — ведь сам факт такого доступа может стать вектором атаки. Ренье ограничился общими словами о «необходимых мерах предосторожности».

За этой конкретной историей стоит более широкая структурная проблема европейской технологической политики. В отличие от США и Китая, в Европе нет ни одной компании, разрабатывающей frontier-модели — системы, которые находятся на переднем крае возможностей и именно поэтому вызывают наибольшие регуляторные опасения. Это означает, что любой европейский надзор за самыми мощными ИИ-системами по определению зависит от готовности американских компаний сотрудничать. ИИ Act создавал иллюзию симметрии: закон распространяется на все модели, работающие на рынке ЕС, вне зависимости от страны происхождения. Но получить реальный технический доступ к весовым коэффициентам или внутренней архитектуре модели — совсем другая задача, и здесь закон пока не предлагает работающего механизма.