DeepSeek V4 в пересказе источника выглядит не просто очередной моделью из Китая, а проверкой устойчивости американской AI-экономики. Заявленные характеристики V4 Pro - 1,6 трлн параметров, mixture of experts, 49 млрд активных параметров на запрос и контекст до 1 млн токенов. V4 Flash подаётся как более лёгкая рабочая версия. Обе модели описываются как близкие к frontier-уровню на кодовых и академических бенчмарках, но с другой экономикой использования.

Ключевой аргумент здесь не в том, что DeepSeek обязательно лучше GPT-5.5 или Claude Opus. Для большинства корпоративных задач абсолютный максимум качества не нужен. Если модель достаточно хороша для поиска, аналитики, кода, поддержки и внутренних агентов, цена и контроль развертывания становятся важнее пары процентов на benchmark. Открытые веса позволяют дообучать, хостить модель в своей инфраструктуре и снижать зависимость от внешнего API.

МодельПараметрыАктивные параметрыКонтекст
DeepSeek V4 Pro1,6 трлн49 млрддо 1 млн токенов
DeepSeek V4 Flash284 млрд13 млрдне указано в источнике

Источник связывает этот результат с эффектом экспортных ограничений. Ограниченный доступ к топовым GPU вынудил китайские команды вкладываться в алгоритмическую эффективность. В такой логике запрет на железо не останавливает прогресс, а меняет направление оптимизации: меньше грубой вычислительной силы, больше инженерии архитектуры, данных и inference.

Автор связывает успех DeepSeek не только с данными, но и с вынужденной оптимизацией из-за дефицита GPU.

DeepSeek V4 снова давит на рынок ценой и открытыми весами
· Источник: Habr AI

Для американского рынка проблема глубже ценовой конкуренции. Если бизнес начнёт строить AI-стратегии на китайском open-source, возникает зависимость другого типа: от моделей, архитектурных решений и обновлений, которые появляются вне американского контура. DeepSeek V4 поэтому стоит читать не как спор фанатов моделей, а как сигнал о том, что open-source может стать главным каналом геополитической конкуренции в ИИ.