Разговоры об ИИ, который ускорит разработку лекарств или вытеснит миллионы офисных сотрудников, почти всегда подразумевают одно и то же — агентные системы. Большие языковые модели умеют отвечать на вопросы, но чтобы влиять на реальные процессы, им нужно не говорить, а делать. Именно для этого и создаются агенты — программы, которые самостоятельно выполняют последовательности действий: открывают браузер, отправляют письма, запускают код, взаимодействуют с другими сервисами.

Первое поколение агентов работало в одиночку: один бот — одна задача. Следующий шаг — координация нескольких агентов, каждый из которых специализируется на своём участке работы. Claude Code от Anthropic, выпущенный в прошлом году, стал одним из первых инструментов, реализовавших эту идею в программировании. Пользователи сообщают, что одновременно запускают до нескольких десятков субагентов: один пишет код, другой тестирует, третий исправляет ошибки. Разработчик при этом превращается скорее в менеджера проекта, чем в исполнителя.

Но программирование оказалось лишь точкой входа. Anthropic утверждает, что собрала десктопное приложение Claude Cowork с помощью Claude Code за 10 дней — работа, которая обычно занимает несколько месяцев. OpenAI выпустила Codex, Perplexity — Computer. Все три продукта позиционируются как инструменты для офисных специалистов, которым не нужно писать код: они позволяют делегировать командам агентов управление почтой, складскими запасами, обработку жалоб клиентов и другие рутинные задачи.

Anthropic собрала приложение Claude Cowork с помощью Claude Code за 10 дней вместо нескольких месяцев обычной разработки.

Мультиагентные системы ИИ: от чат-ботов к командной работе над сложными задачами
· Источник: MIT Technology Review AI

Научная среда получила собственный инструмент — Google DeepMind Co-Scientist. Система координирует агентов для поиска по научной литературе, генерации и проверки гипотез, планирования экспериментов. Это попытка применить логику разделения труда к исследовательскому процессу: вместо одного универсального ассистента — специализированная команда.

Аналогия с конвейером Генри Форда здесь не случайна. Сборочная линия в начале XX века разбила сложный производственный процесс на простые повторяемые операции и кратно увеличила производительность. Мультиагентные системы претендуют на то же самое в сфере умственного труда — разбить сложную задачу на подзадачи и выполнять их параллельно, не дожидаясь, пока один исполнитель закончит предыдущий шаг.

Однако масштабирование агентов несёт риски, которые сложно переоценить. LLM по своей природе непредсказуемы: они могут ошибаться, галлюцинировать факты, неверно интерпретировать инструкции. Когда модель работает внутри чат-интерфейса, цена ошибки невысока. Когда агент получает доступ к корпоративной почте, медицинским записям, финансовым системам или промышленной инфраструктуре, та же непредсказуемость становится системным риском. Отрасль пока не выработала стандартов безопасности для агентных систем, работающих в критически важных средах — и это остаётся открытым вопросом по мере того, как инструменты становятся всё мощнее.