Пользователи Claude Code несколько недель фиксировали одно и то же: инструмент стал хуже справляться с задачами, чаще повторялся, делал странные выборы и как будто «забывал» контекст предыдущих шагов. Anthropic подтвердила проблему и опубликовала детальный разбор: три независимых изменения в разных компонентах системы наложились друг на друга и создали эффект постепенной деградации, который сложно было отличить от обычной вариативности модели.
Первое изменение датируется 4 марта. Anthropic снизила уровень рассуждений по умолчанию с «высокого» до «среднего» — внутренние тесты показывали, что средний режим лишь незначительно уступает высокому на большинстве задач, зато заметно сокращает задержку. Компромисс не сработал: пользователи быстро сообщили, что Claude Code стал менее точным. 7 апреля изменение откатили.
Вторая проблема появилась 26 марта вместе с оптимизацией кэширования. Замысел был разумным: удалять старые секции рассуждений после часа неактивности, чтобы ускорить возобновление сессий. Из-за ошибки в коде история рассуждений стиралась не один раз, а при каждом последующем шаге. Claude терял контекст собственных решений по ходу работы — отсюда повторения, «забывчивость» и неожиданные выборы инструментов. Баг не был замечен на ревью и оставался в продакшне до 10 апреля. Побочным эффектом стало ускоренное расходование лимитов использования из-за промахов кэша.
Баг в оптимизации кэша от 26 марта стирал историю рассуждений Claude на каждом шаге вместо одного раза в час — модель «забывала» контекст и делала странные выборы инструментов.

Третье изменение появилось 16 апреля: в системный промпт добавили инструкцию, ограничивающую многословность Opus 4.7. Строка предписывала держать текст между вызовами инструментов в пределах 25 слов, а финальные ответы — не длиннее 100 слов. Расширенное тестирование выявило падение качества на 3%, и 20 апреля ограничение убрали. Именно в этот день вышла версия 2.1.116, закрывшая все три проблемы.
Поскольку каждое изменение затрагивало разные группы пользователей в разное время, суммарный эффект воспринимался как размытое, постепенное ухудшение. Anthropic признаёт, что такой паттерн сложнее поймать стандартными процедурами контроля. В ответ компания вводит несколько мер: больше сотрудников будут работать с публичной сборкой Claude Code вместо внутренних версий, каждое изменение системного промпта обязано пройти широкий набор тестов, специфичных для конкретной модели, а для изменений, способных повлиять на качество рассуждений, появятся периоды «вымачивания» и постепенные выкатки. Всем подписчикам обнулили лимиты использования, а для публичной коммуникации о продуктовых решениях завели аккаунт @ClaudeDevs в X.
История с Claude Code вписывается в более широкий отраслевой паттерн. В 2023 году пользователи GPT-4 массово жаловались на «поглупение» модели — OpenAI отрицала существенные изменения после релиза. Claude сталкивался с похожими претензиями раньше, и тогда виновником тоже оказывалась инфраструктура, а не сама модель. Когда scaffolding — слой инструментов, который направляет возможности модели и обеспечивает ей нужный контекст — ломается или меняется, пользователь воспринимает это как регрессию самой модели. Добавьте сюда вендорские оптимизации вроде снижения глубины рассуждений, и эффект усиливается.
За этими решениями стоит системное давление на вычислительные ресурсы. Доступность API Anthropic недавно составляла 98,95% — заметно ниже отраслевого стандарта в 99,99%. По данным индекса Ornn Compute Price Index, почасовые цены на GPU на спотовом рынке выросли на 48%, а аналитики Bank of America прогнозируют превышение спроса над предложением как минимум до 2029 года. OpenAI закрыла приложение для генерации видео Sora, чтобы высвободить мощности для кодинга и корпоративных продуктов; GitHub приостановил регистрацию на несколько тарифов Copilot. Глава направления роста Anthropic признал, что тарифы Pro и Max создавались до появления вычислительно-интенсивных инструментов вроде Claude Code и не рассчитаны на агентные нагрузки. OpenAI тем временем вдвое подняла цены на API с выходом GPT-5.5: $5 за миллион входящих токенов и $30 за миллион исходящих. Эпоха дешёвых фиксированных тарифов на мощные агентные инструменты, судя по всему, заканчивается.


