Исследование, опубликованное в 2025 году специалистами MIT, Университета Южной Калифорнии и Hugging Face, зафиксировало сдвиг, который ещё несколько лет назад выглядел маловероятным: за период с 2020 по 2025 год китайские модели получили 17,1% всех загрузок на платформе Hugging Face, тогда как американские — 15,8%. Выборка охватывала 851 тыс. моделей с суммарным числом скачиваний свыше 2 млрд.

Этот результат не случаен — он вырос из многолетней инфраструктурной работы. Ещё в 2016 году Baidu выпустил фреймворк глубокого обучения PaddlePaddle как альтернативу TensorFlow от Google. Сегодня им пользуются более 23 млн разработчиков из 760 тыс. компаний, включая NVIDIA, Intel и Huawei. В 2018 году Alibaba передала в open-source фреймворк X-DeepLearning, позволяющий обучать модели с миллиардами параметров за несколько часов на многомерных разреженных данных — тип задач, характерный для промышленных рекомендательных систем. Huawei развивает MindSpore — фреймворк для обучения моделей под мобильные и облачные среды. Все эти инструменты создавали технологическую базу, на которой впоследствии выросли конкурентоспособные языковые модели.

ФреймворкРазработчикГод выхода в open-sourceОсобенность
PaddlePaddleBaidu201623 млн разработчиков, 760 тыс. компаний
X-DeepLearning (XDL)Alibaba2018Обучение моделей с млрд параметров за несколько часов
MindSporeHuaweiОбучение ИИ-моделей под мобильные и облачные среды

Государство сыграло в этом процессе роль архитектора, а не просто наблюдателя. В 2020 году при участии Huawei, Alibaba, Baidu и Tencent был основан фонд OpenAtom — китайский аналог Apache Software Foundation с ориентацией на глобальное сотрудничество. Якорным проектом фонда стала операционная система OpenHarmony, рассматриваемая как кандидат на роль национальной альтернативы Android. Параллельно развивается платформа Gitee — альтернатива GitHub: к 2020 году на ней было создано более 10 млн репозиториев, аудитория составила около 5 млн разработчиков. До GitHub с его 31 млн пользователей и на порядок большим числом репозиториев Gitee пока не дотягивает, но планомерно наращивает присутствие.

Обучение DeepSeek-V3 обошлось в 5,5 млн долларов — против миллиардов у западных конкурентов.

Наиболее резонансным примером стал DeepSeek. Обучение модели DeepSeek-V3, по данным её авторов, обошлось примерно в 5,5 млн долларов — на порядки меньше затрат OpenAI и других западных лабораторий. Выход модели спровоцировал однодневное падение капитализации NVIDIA на 593 млрд долларов — крупнейшее в истории американского фондового рынка. Однако DeepSeek — лишь самый громкий эпизод. Компания Qwen Lab годами выпускала модели с открытыми весами, и к сентябрю 2024 года их суммарные загрузки превысили 600 млн; в тот период на модели Qwen приходилось более 30% всех скачиваний на Hugging Face.

Китайская экосистема становится всё более специализированной. AI Laboratory разрабатывает Intern-S1-Pro — модель с триллионом параметров, заточенную под химию, биологию и материаловедение: она умеет предсказывать свойства молекул и интерпретировать химические данные. Компания Ubiquant запустила медицинскую систему Fleming-R1, способную диагностировать редкие заболевания и рекомендовать курс лечения. Tencent работает над моделями для генерации и распознавания музыки: LeVo 2 показывает уровень ошибок в фонемах 8,5% против 10% и выше у закрытых коммерческих конкурентов.

Влияние на западный рынок уже измеримо. Мартин Касадо, генеральный партнёр Andreessen Horowitz, оценивает ситуацию прямо: около 80% стартапов, представляющих open-source проекты, строят их на основе китайских открытых моделей. Исследователи API-агрегатора OpenRouter в 2025 году проанализировали метаданные нескольких миллиардов запросов от пользователей платформы — и эта статистика лишь подтверждает тенденцию. Китайские модели перестали быть региональной историей: они стали глобальной инфраструктурой.