Согласно отчёту Deloitte AI Institute «State of AI 2026», 74% компаний планируют развернуть агентный ИИ в течение двух лет. При этом зрелую систему управления автономными агентами имеет лишь каждая пятая организация — 21%. Разрыв между скоростью внедрения и готовностью к нему формирует системный риск, который пока слабо осознаётся на уровне корпоративной безопасности.

Агентный ИИ — это не просто чат-бот или инструмент автодополнения. Агенты действуют самостоятельно: выполняют задачи, вызывают внешние API, обращаются к базам данных, инициируют транзакции. Для этого им выдаются учётные данные и права доступа — то есть они становятся полноправными участниками корпоративной инфраструктуры. В современных крупных организациях число неличных идентификаторов (NHI — учётных записей сервисов, ботов, автоматизированных процессов) уже превышает число человеческих. С распространением агентного ИИ этот разрыв будет расти экспоненциально.

Проблема в том, что компании нередко не отдают себе отчёта в том, какие привилегии фактически получают агенты. Эндрю Рафла, партнёр практики кибербезопасности Deloitte, описывает ситуацию так: без централизованной плоскости управления (control plane) у организации нет возможности масштабировать агентов безопасно — есть только неуправляемое исполнение с сопутствующими рисками. Контрольная плоскость — это общий централизованный слой, который определяет, кто может запускать каких агентов, с какими разрешениями, в рамках каких политик и с использованием каких моделей и инструментов. Если компания не может ответить на вопросы «что сделал агент, от чьего имени, с какими данными и по какой политике» — функциональной плоскости управления у неё нет.

Только 21% компаний располагает зрелой системой управления автономными агентами.

74% компаний планируют внедрить ИИ-агентов, но только 21% готовы ими управлять
· Источник: MIT Technology Review AI

Опрос руководителей показывает, что угрозы осознаются, но системного ответа на них пока нет. Конфиденциальность данных и безопасность беспокоят 73% топ-менеджеров, юридические и регуляторные риски — 50%, вопросы управления и надзора — 46%. При этом реальная зрелость процессов управления критически отстаёт от декларируемых намерений.

В более широком контексте проблема не нова: индустрия уже проходила похожий цикл с облачными сервисами и микросервисной архитектурой, когда скорость развёртывания опережала формирование политик безопасности. Разница в том, что ИИ-агенты принимают решения автономно и могут действовать в условиях неопределённости — это делает последствия неуправляемого исполнения принципиально менее предсказуемыми. Пилотные проекты без выстроенного управления не просто не масштабируются — они отказывают непредсказуемо и сразу на всю организацию.