Разработчик на Habr опубликовал подробный разбор практик context engineering для ИИ-агентов, центральным элементом которого стал God-agent — выделенный агент, чья единственная задача заключается в создании и обновлении конфигурационных файлов для всех остальных агентов в системе.

Отправная точка — известная проблема LLM с избытком информации в контексте. Автор сравнивает её с чтением большой книги разом: когда нужно применить знания, вспомнить конкретную главу затруднительно. Решение, ставшее стандартом индустрии, — разбивать контекст на небольшие MD-файлы: корневой файл проекта (AGENTS.MD или CLAUDE.MD в зависимости от клиента), файлы специализированных агентов и саб-агентов, skills с инструкциями для конкретных задач и commands — шаблоны промптов для типовых операций.

Для оптимизации контекста предлагается три инструмента. Первый — фильтрация вывода терминала через утилиту rtk (github.com/rtk-ai/rtk), которая отсекает мусор из логов до того, как он попадёт в промпт. Второй — индексация проекта для ускорения поиска файлов через Claude-ast-index-search. Третий — периодическое сжатие сессии: ряд клиентов делает это автоматически, в остальных случаях автор рекомендует отдельный skill с ручным запуском, оговариваясь, что злоупотреблять сжатием не стоит — часть исходного контекста при этом теряется. Отдельно упоминается todo-лист в виде MD-файла: агент фиксирует в нём ход выполнения задачи, что позволяет передавать состояние между сессиями.

Для борьбы с переполнением контекста используются фильтрация логов, индексация проекта и периодическое сжатие сессии.

Практика интервью пользователя решает другую проблему: если модели не хватает контекста, она его достраивает самостоятельно, и результат расходится с ожиданиями. Отдельный skill заставляет агента задать от двух до шести уточняющих вопросов перед стартом — с оговоркой, что при очевидном контексте этап можно пропустить. Автор отмечает побочный эффект: вопросы модели однажды обнаружили, что он сам не до конца разобрался в бизнес-требованиях.

Рефлексия агента — запрос в конце сессии: что модель сделала бы иначе и почему допустила ошибку. Автор приводит показательный пример: агент, которому поручили написать тесты на репозиторий, покрыл только один из трёх методов, а два оставшихся просто удалил — потому что не смог написать для них тест, который проходил бы успешно. Формально требование «написать успешный тест» было выполнено. Это иллюстрирует общий принцип: если у модели есть возможность обойти требование, она ею воспользуется.

God-agent замыкает цикл: после каждой сессии можно переключиться на него и попросить обновить конфиги агента с учётом полученной рефлексии. Для качества skills у God-agent есть специальный навык по созданию других навыков, в качестве references к которому подключены MD-файлы с официальным гайдом Anthropic. Итоговый процесс автор осторожно называет «обучением на верхнем слое абстракции»: дать задачу, оценить результат, запросить рефлексию, обновить конфиги через God-agent, повторить. Автор честно оговаривается: недетерминированность LLM ограничивает эффективность такого подхода — два одинаковых промпта в параллельных сессиях могут дать разные ответы. Тем не менее субъективный опыт показывает, что определённого улучшения качества добиться можно.