DeepSeek V4 в пересказе источника выглядит не просто очередной моделью из Китая, а проверкой устойчивости американской AI-экономики. Заявленные характеристики V4 Pro - 1,6 трлн параметров, mixture of experts, 49 млрд активных параметров на запрос и контекст до 1 млн токенов. V4 Flash подаётся как более лёгкая рабочая версия. Обе модели описываются как близкие к frontier-уровню на кодовых и академических бенчмарках, но с другой экономикой использования.
Ключевой аргумент здесь не в том, что DeepSeek обязательно лучше GPT-5.5 или Claude Opus. Для большинства корпоративных задач абсолютный максимум качества не нужен. Если модель достаточно хороша для поиска, аналитики, кода, поддержки и внутренних агентов, цена и контроль развертывания становятся важнее пары процентов на benchmark. Открытые веса позволяют дообучать, хостить модель в своей инфраструктуре и снижать зависимость от внешнего API.
| Модель | Параметры | Активные параметры | Контекст |
|---|---|---|---|
| DeepSeek V4 Pro | 1,6 трлн | 49 млрд | до 1 млн токенов |
| DeepSeek V4 Flash | 284 млрд | 13 млрд | не указано в источнике |
Источник связывает этот результат с эффектом экспортных ограничений. Ограниченный доступ к топовым GPU вынудил китайские команды вкладываться в алгоритмическую эффективность. В такой логике запрет на железо не останавливает прогресс, а меняет направление оптимизации: меньше грубой вычислительной силы, больше инженерии архитектуры, данных и inference.
Автор связывает успех DeepSeek не только с данными, но и с вынужденной оптимизацией из-за дефицита GPU.

Для американского рынка проблема глубже ценовой конкуренции. Если бизнес начнёт строить AI-стратегии на китайском open-source, возникает зависимость другого типа: от моделей, архитектурных решений и обновлений, которые появляются вне американского контура. DeepSeek V4 поэтому стоит читать не как спор фанатов моделей, а как сигнал о том, что open-source может стать главным каналом геополитической конкуренции в ИИ.



