Исследование Capgemini зафиксировало: 79% руководителей государственных организаций по всему миру считают безопасность данных главным препятствием для внедрения ИИ. Это не паранойя — правительственные данные подпадают под жёсткие правовые ограничения, а последствия утечки несопоставимы с корпоративными рисками. Решением, которое обсуждается всё активнее, становятся малые языковые модели — SLM, способные работать полностью внутри периметра организации.

Частный бизнес, разворачивая ИИ, по умолчанию рассчитывает на постоянный доступ к облаку, централизованную инфраструктуру и свободное перемещение данных. Для большинства государственных структур эти условия либо неприемлемы, либо физически недостижимы: часть ведомств работает в средах с ограниченным или полностью отсутствующим интернет-соединением. Именно поэтому многие пилотные проекты в госсекторе так и не выходят за рамки экспериментов.

Вице-президент по ИИ компании Elastic Хань Сяо указывает на ещё один структурный барьер: «Государство, в отличие от частного сектора, как правило, не закупает GPU и не привыкло управлять такой инфраструктурой. Доступ к GPU для запуска модели — узкое место для большей части госсектора». Опрос Elastic среди руководителей государственных структур подтверждает масштаб проблемы: 65% респондентов испытывают трудности с непрерывным использованием данных в реальном времени и при больших объёмах.

65% руководителей госструктур испытывают трудности с непрерывным использованием данных в реальном времени — данные опроса Elastic.

SLM принципиально отличаются от LLM по архитектуре: они оперируют миллиардами параметров, а не сотнями миллиардов, что делает их на порядок менее требовательными к вычислительным ресурсам. Модель размещается локально, данные хранятся отдельно и извлекаются только по запросу с помощью технологий векторного поиска и верифицированных источников. Эмпирические исследования показывают, что SLM справляются с задачами не хуже, а в ряде случаев лучше крупных моделей. Gartner прогнозирует, что к 2027 году специализированные малые модели будут использоваться втрое чаще, чем LLM.

Практическое применение SLM в госсекторе шире, чем кажется на первый взгляд. Государственные организации накапливают огромные массивы неструктурированных данных: технические отчёты, закупочная документация, протоколы заседаний, счета-фактуры. Современные SLM-системы способны индексировать смешанные форматы — PDF, сканы, изображения, таблицы, аудиозаписи — и работать с несколькими языками одновременно, формируя ответы с учётом правовых норм. Хорошо обученная SLM может интерпретировать законодательные нормы, извлекать выводы из публичных консультаций и поддерживать принятие управленческих решений на основе данных.

Для стран с жёсткими требованиями к защите персональных данных — в частности, европейских, где действует GDPR, — SLM предлагают дополнительное преимущество: алгоритмы поддаются документированию и сертификации, что упрощает прохождение аудита. Локальное хранение данных снижает риск галлюцинаций: модель вынуждена опираться на верифицированные источники, а не на обучающую выборку с фиксированной датой среза. Сяо формулирует это так: «Если спросить LLM о событиях после даты обучения, она начнёт галлюцинировать. Мы решаем это, заставляя модель работать только с проверенными источниками».

Стратегический совет от Сяо звучит контринтуитивно для тех, кто ассоциирует ИИ с чат-ботами: «Не начинайте с чат-бота — начинайте с поиска. Большая часть того, что мы называем интеллектом ИИ, на самом деле сводится к поиску нужной информации». Логика здесь проста: прежде чем автоматизировать коммуникацию, нужно научить систему находить достоверные данные внутри организации. Именно этот сдвиг — от отправки данных в облако к доставке ИИ-инструмента к данным — авторы материала называют следующим этапом цифровизации государственного управления.