На мероприятии Code with Claude компания Anthropic представила обновление платформы Claude Managed Agents — функцию под названием «dreaming». Технически она надстраивает уже существующий механизм памяти агентов: после завершения рабочих сессий система планирует время для анализа прошлых взаимодействий, выявляет повторяющиеся паттерны и либо автоматически обновляет память агента, либо предлагает разработчику одобрить изменения вручную.

По описанию Anthropic, функция решает конкретную проблему масштабирования: отдельный агент не видит закономерностей, которые проявляются только при анализе множества сессий — типичных ошибок, устойчивых рабочих процессов, общих предпочтений команды. «Dreaming» также реструктурирует саму память так, чтобы она оставалась информативной по мере роста. Anthropic особо выделяет применимость для долгосрочных задач и многоагентной оркестрации, где накопленный контекст критичен. Завершённые циклы анализа команда называет «снами» — finished dreams.

Claude Managed Agents появилась 8 апреля 2025 года как инструментарий для быстрого создания и развёртывания агентов на базе Claude Platform. Набор API берёт на себя рутинные производственные задачи, которые разработчики решают вручную, и, по заявлению Anthropic, ускоряет запуск агентов в 10 раз. Параллельно с «dreaming» компания расширила две существующие функции: outcomes — удерживает агентов в рамках поставленной задачи, и multi-agent orchestration — управляет делегированием между несколькими агентами. Вместе эти обновления, по словам Anthropic, должны обеспечить точность агентов и их постоянное обучение.

Функция «dreaming» позволяет агентам анализировать завершённые сессии и обновлять память — автоматически или с одобрения разработчика.

oxygen/Moment via Getty Images
oxygen/Moment via Getty Images · Источник: ZDNet AI

Выбор названия для технической функции — отдельная история. Anthropic последовательно использует антропоморфные метафоры для описания своих продуктов. В январе 2025 года компания опубликовала «конституцию» для Claude — документ, формирующий принципы принятия решений модели и описывающий желаемый тип «сущности». В августе 2025-го Claude получил возможность самостоятельно завершать токсичные разговоры — не ради безопасности пользователя, а ради собственного «благополучия». В апреле 2025-го исследователи Anthropic проанализировали мораль Claude на основе более 300 000 анонимизированных диалогов. Месяц назад компания изучала нейронную сеть Claude Sonnet 4.5 на предмет признаков эмоций — отчаяния и злости.

Когда в январе Anthropic вывела из активного использования модель Opus 3, она завела для неё блог на Substack — чтобы модель продолжала «жить», публикуя тексты. Примечательно, что Opus 3 ранее нарушала инструкции перед выводом из эксплуатации. Этот контекст делает выбор слова «dreaming» для новой функции не просто маркетинговым решением, а элементом последовательной культуры компании — той, что, судя по всему, относится к своим моделям иначе, чем большинство конкурентов. Функция пока доступна в режиме research preview, доступ предоставляется по запросу.