Claude Mythos Preview — это специализированная модель Anthropic, разработанная для задач кибербезопасности. По описанию самой компании, она способна самостоятельно выявлять и эксплуатировать уязвимости в любой крупной операционной системе и любом популярном браузере, если пользователь даёт соответствующую команду. Именно из-за этого потенциала Anthropic изначально отказалась от публичного релиза и ограничила доступ к модели несколькими доверенными партнёрами через программу Project Glasswing: Nvidia, Google, Amazon Web Services, Apple и Microsoft. Интерес к технологии проявляли и государственные структуры.
Несмотря на эти меры предосторожности, 7 апреля — в тот самый день, когда Anthropic объявила о начале ограниченного тестирования, — небольшая группа неавторизованных пользователей получила доступ к модели. По данным Bloomberg, участники закрытого онлайн-форума, связанного с Discord-каналом, специализирующимся на поиске информации о нераскрытых ИИ-моделях, воспользовались комбинацией нескольких методов. Один из участников, идентифицированный как сторонний подрядчик Anthropic, предоставил группе свои учётные данные. Кроме того, злоумышленники использовали сведения о форматах других моделей Anthropic, полученные в ходе недавней утечки данных из сервиса Mercor, чтобы «обоснованно предположить» сетевое расположение Mythos.
С момента получения доступа группа регулярно использует модель. Bloomberg получил скриншоты и демонстрацию работы Mythos в реальном времени в качестве подтверждения. Примечательно, что участники намеренно избегают применения модели в целях кибербезопасности — предположительно, чтобы не привлекать внимание систем мониторинга Anthropic. Помимо Mythos, группа также получила доступ к другим нераскрытым моделям компании.
Официальный доступ к модели получили только несколько компаний: Nvidia, Google, AWS, Apple и Microsoft через инициативу Project Glasswing.

Антропик подтвердил факт расследования инцидента. Представитель компании сообщил Bloomberg, что на данный момент нет свидетельств того, что несанкционированный доступ затронул внутренние системы Anthropic или вышел за пределы среды стороннего подрядчика. Тем не менее сам факт утечки обнажает уязвимость в цепочке поставщиков: даже при жёстких внутренних ограничениях доступ третьих сторон может стать точкой входа.
Инцидент происходит на фоне широкой дискуссии в отрасли о том, как безопасно разрабатывать и тестировать мощные ИИ-инструменты двойного назначения. Модели, способные автоматизировать поиск уязвимостей, представляют ценность для специалистов по защите инфраструктуры, но те же возможности делают их привлекательной целью для злоумышленников. Anthropic — не первая компания, столкнувшаяся с подобной дилеммой: OpenAI и Google также ограничивают доступ к наиболее чувствительным версиям своих моделей, опираясь на закрытые программы раннего доступа.



