Доклад «Prompting 101» команды Applied AI в Anthropic построен вокруг одного тезиса: промпт — это не текст, который угадывают с первого раза, а артефакт, который итерируют. Автор разбора на Habr прошёл по пяти итерациям кейса из доклада и вытащил из них рабочую схему для продактов, аналитиков и дизайнеров, которые используют LLM в рабочих процессах — в n8n, Make, API или напрямую в Claude.ai.

Кейс в докладе — шведская страховая компания. На вход поступают два документа: бланк заявления о ДТП с 17 пунктами и рисованная схема аварии. Задача — определить виновника в одном вызове API, без диалога, на выходе — структурированные данные для системы и оператора. Первая итерация с «голым» промптом дала ответ про лыжную аварию на улице Чаппанган — хотя в задаче не было ни слова про лыжи. Модель не сообщила о неопределённости, она просто заполнила пробел уверенной выдумкой. Это базовое свойство LLM: без контекста модель галлюцинирует не потому что «ошибается», а потому что генерирует наиболее вероятное продолжение.

БлокЧто туда кладём
1КонтекстРоль, цель, сценарий
2ТонКак отвечать, что делать при неопределённости
3ФонСтабильная информация о данных
4ИнструкцииПорядок действий
5ПримерыКорнер-кейсы
6ИсторияЕсли есть диалог
7ЗадачаЧто нужно сейчас
8РассуждениеЕсли задача сложная
9ФорматJSON / XML
10PrefillНачало ответа

Anthropic структурирует системный промпт в 10 блоков: контекст (роль, цель, сценарий), тон (как отвечать при неопределённости), фон (стабильная информация о данных), инструкции (порядок действий), примеры (корнер-кейсы), история диалога, текущая задача, блок рассуждения для сложных задач, формат вывода и prefill — заданное начало ответа. На практике 80% задач закрываются блоками 1–4 и форматом. Каждая из пяти итераций кейса закрывала конкретную дыру: сначала добавили роль и правило «не знаю лучше, чем выдумка», затем описание структуры бланка в системный промпт (фоновые сведения, которые не меняются от запроса к запросу и могут кешироваться), потом явный порядок шагов — сначала бланк, потом схема. Без этого порядка схема ДТП — просто набор линий без контекста. Финальная итерация добавила требования к формату: краткость, опора только на данные, итоговый вывод в теге `<final_verdict>`.

Без явного контекста модель не сообщает о неопределённости — она уверенно придумывает ответ, как в кейсе с «лыжной аварией».

Порядок шагов в инструкции автор называет самым сильным рычагом качества — ответ меняется не на проценты, а кратно. Это работает за пределами страхового кейса: в UX-ресёрче сначала категории, потом паттерны; в анализе логов сначала фильтр, потом интерпретация. Логика одна — модель обрабатывает контекст последовательно, и порядок подачи информации влияет на то, как она строит рассуждение.

Среди продвинутых техник в докладе выделяются few-shot примеры и prefill. Few-shot — это блок `<example>` с реальным корнер-кейсом и правильным ответом прямо в системном промпте. По сути, это способ «дообучить» модель на собственных кейсах без изменения весов: поймали ошибку в продакшене, разметили правильный ответ, добавили пример — в следующий раз модель опирается на него. Prefill позволяет задать начало ответа, например `Assistant: <final_verdict>`, и получить нужный формат без лишнего текста вокруг — полезно при генерации JSON или строго структурированных данных. Extended Thinking, если есть доступ к промежуточным рассуждениям модели, помогает увидеть, где именно она ошибается, и перенести это в инструкции.

Автор разбора выпустил два практических инструмента. Первый — веб-сервис по адресу exp.inforobot.space/prompt-architect/ru/, который проводит по 10 блокам методики: заполняешь поля, справа в реальном времени собирается готовый промпт с подсказками к каждому блоку. Не требует регистрации, состояние сохраняется в браузере. Второй — Project для Claude.ai с системным промптом «Prompt Architect»: задаёшь задачу, ассистент задаёт уточняющие вопросы и собирает промпт по структуре Anthropic. Оба инструмента ориентированы на людей без технического фона — продактов, дизайнеров, аналитиков, которые настраивают LLM-узлы в автоматизациях или используют Claude для сложных рабочих задач.