В январе 2025 года китайская лаборатория DeepSeek выложила в открытый доступ модель R1 — и это событие переформатировало расстановку сил в мировой ИИ-индустрии. R1 показала результаты, сопоставимые с лучшими американскими системами, при затратах на обучение, которые, по имеющимся данным, были на порядок ниже. Для разработчиков это означало одно: мощный инструмент можно скачать, развернуть на собственном железе и адаптировать под задачи бизнеса — без подписки, без API-ключей, без переговоров с американскими поставщиками.
За полтора года вокруг этой логики сложился целый кластер китайских компаний. Z.ai (бывшая Zhipu), Moonshot, Alibaba с семейством Qwen и MiniMax следуют той же стратегии: выпускать модели как open-weight пакеты, то есть публиковать веса нейросети, позволяя любому желающему запустить её локально или дообучить под свои нужды. Исследование MIT и Hugging Face зафиксировало результат: за год до августа 2025 года китайские open-weight модели собрали 17,1% мировых загрузок, впервые обогнав американские с их 15,86%. Модели Alibaba при этом накопили больше пользовательских вариантов, чем продукты Google и Meta вместе взятые.
Открытые веса — это не просто альтруизм. Китайские лаборатории работают в условиях американских экспортных ограничений на передовые чипы, что сдерживает вычислительные мощности. Открытая публикация моделей ускоряет цикл внешней обратной связи: тысячи разработчиков по всему миру дообучают модели, находят слабые места, предлагают улучшения. Чем шире экосистема, тем быстрее развивается базовая модель — именно так работали Linux и Android. Параллельно растёт и коммерческая отдача: популярность open-source модели конвертируется в API-запросы и корпоративные контракты.
Модели Alibaba семейства Qwen имеют больше пользовательских вариантов, чем модели Google и Meta вместе взятые.

Глобальный Юг воспринимает китайский open-source как путь к технологическому суверенитету. Государственная программа AI Singapore выбрала Qwen вместо Meta Llama для создания регионального ИИ-ассистента. Малайзия объявила, что её суверенная ИИ-инфраструктура будет работать на DeepSeek. Стартапы в Найроби, Сан-Паулу и Сан-Франциско строят продукты на китайских моделях — не из идеологических соображений, а потому что это дешевле и гибче.
Однако у китайского open-source есть системные ограничения. Модели обучены с учётом требований китайской цензуры и избегают тем, противоречащих государственной политике. В феврале 2025 года Anthropic обвинил ряд китайских лабораторий в дистилляции — использовании выходных данных Claude для обучения собственных моделей в обход лицензионных условий. Дистилляция сама по себе является стандартной практикой в отрасли, однако американские компании утверждают, что китайские конкуренты применяли для этого мошеннические методы доступа.
Американские технологические компании придерживаются противоположной философии: лучшие модели должны оставаться закрытыми — чтобы окупить колоссальные затраты на обучение и не допустить использования мощных систем в деструктивных целях. Эта позиция логична с точки зрения бизнеса, но проигрывает в борьбе за лояльность разработчиков. Отдавать бесплатно то, за что конкуренты берут деньги, — действенный способ строить экосистему. ИИ-рынок становится многополярным быстрее, чем рассчитывал Кремниевый долг.

