Технический директор SENSE Дмитрий Фырнин опубликовал на Habr первую часть серии материалов о том, как LLM меняют среду принятия решений. Центральный тезис: языковые модели уже не укладываются в категорию SaaS и ведут себя как коммунальная услуга — с тарифами, уровнями доступа и чувствительностью к цене.

Аналогия с энергосистемой здесь не декоративная. Электричество распределяется, тарифицируется и регулируется — и его отсутствие ощущается острее, чем присутствие. По мере того как на языковые модели завязываются бизнес-процессы, они приобретают ту же логику: SLA, приоритеты доступа, ценовые уровни. Продуктовые оболочки — корпоративные тарифы, API, агентные сценарии — в конечном счёте сводятся к одному вопросу: сколько токенов, какого качества и при каких ограничениях доступно пользователю.

Страна / блокИнструмент поддержкиБенефициар
КитайСубсидии дата-центров, энергетики, производителей GPUDeepSeek и другие
СШАCHIPS Act, военные контрактыMicrosoft, Google, Amazon
ЕСГосударственные фондыMistral

Экономика токенов устроена жёстко. Снизу стоимость единицы вычисления ограничивает себестоимость GPU и электричества: если мощность выгоднее использовать иначе, цена на токены не будет падать бесконечно. Сверху давит конкуренция и — что принципиально — государственные субсидии. Китай субсидирует дата-центры, энергетику и производителей GPU, что позволило DeepSeek выйти на рынок с агрессивно низкой ценой. США через CHIPS Act и военные контракты косвенно финансируют инфраструктуру Microsoft, Google и Amazon. ЕС поддерживает Mistral через государственные фонды, рассматривая его как стратегический актив. В итоге стоимость токена оказывается зажатой не только между инфраструктурой и рынком, но и между геополитическими интересами — и эта зона конфликта, по оценке автора, будет только расширяться.

Цену токена зажимают с двух сторон: снизу — себестоимость GPU и электричества, сверху — государственные субсидии (DeepSeek, Mistral, CHIPS Act).

LLM как коммунальная услуга: почему токен становится единицей оплаты за мышление
· Источник: Habr AI

Рынок движется не к «лучшему мышлению», а к «достаточно хорошему мышлению с предсказуемой экономикой». Инвесторы крупнейших LLM-компаний рано или поздно начнут требовать прибыльности, и тогда главным конкурентным преимуществом станет не впечатляющий benchmark, а способность давать приемлемый результат при низкой себестоимости. Это объясняет, почему разговоры про «цифровых сотрудников» набирают вес: рынку нужна понятная единица потребления. На практике, впрочем, это пока не автономный субъект, а сборка из модели, инструментов, памяти и ограничений. Ближайшее будущее — коммерциализация узких сценариев: поддержка, суммаризация, генерация, аналитика, кодогенерация, работа с внутренними данными.

Отдельный сдвиг — появление пооперационной цены на мышление. Умственный труд всегда стоил денег, но его цена учитывалась через часы специалистов. LLM впервые позволяют грубо, но практически оценить, сколько стоит анализ, генерация или перебор вариантов. Компании начинают оптимизировать не просто процессы, а глубину и стоимость размышления: где хватит дешёвой модели, где нужна большая глубина, где допустим черновик, а где требуется человеческая верификация из-за цены ошибки или репутационных рисков.

Агентные сценарии — следующий рубеж, и именно здесь безопасность становится главным тормозом. Пока модель помогает писать или искать, цена ошибки невысока. Но когда LLM получает доступ к почте, документам, CRM или платежам, она становится точкой потенциальной атаки. Исследования prompt injection показывают: агентные системы уязвимы к атакам, при которых вредоносный контент интерпретируется как команда — и влияет не только на ответ, но и на поведение всей системы, вплоть до вызова инструментов и изменения логики выполнения. Модель не на 100% различает данные и инструкции, и это структурная проблема, а не баг конкретной реализации.

Наконец, траектория улучшений моделей всё больше напоминает рынок потребительской электроники: сначала ощутимый скачок, затем серия улучшений, которые инженерно реальны, но субъективно воспринимаются как второстепенные. Каждый новый скачок обходится дороже и меньше ощущается массовым пользователем. Наиболее реалистичный сценарий: часть улучшений станет критичной для профессионалов, часть будет работать на поддержание лидерства. Массовому пользователю окажется важнее не то, что модель стала чуть умнее, а то, что она стала надёжнее, дешевле и лучше встроилась в реальные процессы.