В 2024 году типичный ИИ-пилот выглядел так: команда берёт один датасет, обучает модель на изолированном контуре, раз в сутки выгружает данные в CSV и показывает demo на совете директоров. Интеграция в таком сценарии не упоминается даже в техническом задании. Ровно поэтому пилоты выглядели успешными — до момента, когда их попытались масштабировать.
Переход от чат-ботов к агентным архитектурам обнажил проблему, которую годами финансировали по остаточному принципу. ИИ-агент, в отличие от чат-бота, должен читать и писать в корпоративные системы в реальном времени. У среднего российского банка таких систем больше ста, у промышленного холдинга — иногда свыше трёхсот. Агенту нужен доступ с задержкой в десятки миллисекунд, с гарантированной доставкой, с контролем прав и сквозной трассировкой. Ни одно из этих требований классические интеграционные контуры, собранные под отчётные нагрузки, по умолчанию не выполняют.
| Требование агента | Классическая интеграция | Проблема |
|---|---|---|
| Задержка в десятки миллисекунд | Ночная выгрузка в хранилище | Пользователь уходит до получения ответа |
| Семантическая нормализация данных | Разные ID одной сущности в разных системах | Агент получает три версии одного объекта |
| Двусторонняя запись с аудитом | Исторически только выгрузка | Нет механизма отката изменений |
| Гарантированная доставка (exactly-once) | Не реализована по умолчанию | Сбой обнаруживается через жалобу клиента |
Виктор Овчинников, руководитель разработки интеграционной платформы Digital Q.Integration в компании Диасофт, выделяет четыре конкретных требования, которые агент предъявляет к интеграционному слою. Первое — скорость: ночная выгрузка бесполезна, нужны актуальные данные здесь и сейчас. Второе — семантическая нормализация: если в CRM клиент хранится под одним ID, в биллинге под другим, а в скоринговой системе под третьим, агент начнёт «галлюцинировать» не из-за слабости модели, а из-за того, что получил три версии одной сущности. Третье — двусторонность: агент должен не только читать, но и писать в системы под аудитом и с возможностью отката. Четвёртое — гарантированная доставка: когда человека в контуре нет, никто не заметит, что сообщение потерялось, и о сбое компания узнает из жалобы клиента через три дня.
Gartner прогнозирует: к концу 2026 года половина агентных ИИ-инициатив не выйдет из песочницы.
Архитектурные подходы, которые десятилетиями считались стандартом, на этих требованиях ломаются по-разному. Точечные интеграции «точка-точка» удобны при малом числе систем, но количество каналов растёт как квадрат от числа систем: на десяти системах до 45 каналов, на пятидесяти — уже за тысячу. Для агента, которому нужен контекст из десятка систем, это означает десятки коннекторов с разными форматами и авторизацией, каждый из которых придётся трогать при любом обновлении сценария.
Enterprise Service Bus, расцветшая в нулевых на продуктах IBM WebSphere, Tibco ActiveMatrix, Oracle Service Bus, Mule и WSO2, решала проблему топологии, но создавала новую: монолитное ядро, где изменение одного маршрута требует деплоя всей шины. На ИИ-нагрузке это выражается в задержках — модель ждёт ответа секундами вместо миллисекунд. Кроме того, проприетарный DSL не позволяет подключить LLM как стандартный узел: коннектор пишется под конкретного вендора и переписывается заново при смене модели.
Для российских компаний к архитектурным проблемам добавилась регуляторная. После 2022 года Tibco, Mule, WSO2 и IBM MQ либо ушли с рынка, либо прекратили нормальную поддержку. Указ Президента №309 от мая 2024 года установил конкретные сроки замены иностранных интеграционных решений для субъектов критической информационной инфраструктуры, а Приказ Минцифры №21 с 2025 года прекратил закупки зарубежного ПО. Банки и промышленные холдинги оказались перед задачей: мигрировать интеграционный слой за 12–18 месяцев силами команд, весь опыт которых наработан в экосистеме ушедшего вендора — и одновременно запустить поверх этого ИИ-стратегию.
Катализатором, который превратил накопившееся напряжение в острый кризис, стал протокол MCP (Model Context Protocol), появившийся в конце 2024 года. Он сделал LLM полноценным интеграционным узлом, способным напрямую обращаться к корпоративным системам. Следом появились A2A-протоколы, связывающие несколько агентов в единый рабочий процесс. Архитектура стала возможной — но обнажила, что данные до моделей попросту не добираются. Gartner на этом фоне прогнозирует: к концу 2026 года половина всех агентных ИИ-инициатив до промышленной эксплуатации не доживёт — не из-за нехватки идей, а из-за интеграционного слоя.



