Mistral Medium 3.5 появилась как ответ на запрос, который компания слышала от разработчиков и корпоративных клиентов: не хотим выбирать между моделью для чата, моделью для кода и моделью для сложных рассуждений. Теперь это один продукт.
Архитектурно Medium 3.5 — плотная (dense) модель: все 128 млрд параметров загружаются и активируются при генерации каждого токена. Это контрастирует с подходом Mixture of Experts (MoE), который используют конкуренты — DeepSeek, Qwen — и сама Mistral в других продуктах. Mistral Large 3, например, имеет 675 млрд суммарных параметров, но активирует лишь 41 млрд на токен. Mistral Small 4 при 119 млрд параметрах задействует всего 6 млрд. MoE дешевле в инференсе при сопоставимом качестве, поэтому выбор dense-архитектуры для флагмана — осознанный компромисс: дороже в эксплуатации, но проще в развёртывании и стабильнее в продакшне.
| Модель | Архитектура | Всего параметров | Активных на токен | Лицензия |
|---|---|---|---|---|
| Mistral Medium 3.5 | Dense | 128 млрд | 128 млрд | Modified MIT |
| Mistral Large 3 | MoE | 675 млрд | 41 млрд | Apache 2.0 |
| Mistral Small 4 | MoE | 119 млрд | 6 млрд | Apache 2.0 |
Окно контекста в 256 000 токенов позволяет обрабатывать большие кодовые базы или длинные документы за один запрос. Mistral заявляет, что модель можно развернуть самостоятельно на четырёх GPU — но на практике это доступно лишь организациям с серьёзной инфраструктурой, а не рядовым разработчикам.
Рассуждения стали параметром запроса (reasoning_effort), а не отдельной моделью — тренд всей отрасли.

Рассуждения в Medium 3.5 реализованы через параметр reasoning_effort: пользователь или разработчик выбирает между быстрым ответом и расширенным режимом для сложных задач. Это отражает общий сдвиг в отрасли — OpenAI, Anthropic и Google также отказываются от отдельных «reasoning-моделей» в пользу единого переключателя. Отдельно Mistral переписала визуальный энкодер с нуля: новая версия корректно обрабатывает изображения произвольного размера и соотношения сторон.
По собственным бенчмаркам Mistral, Medium 3.5 набирает 77,6% на SWE-Bench Verified (задачи по исправлению реальных GitHub-ошибок) и 91,4% на T3-Telecom (отраслевые задачи телекома). При этом компания сама признаёт отставание от Claude в банковских сценариях — редкая для пресс-релизов честность, которая говорит о том, что универсальность модели имеет свою цену.
Лицензионная политика изменилась. Предыдущие модели Mistral — Large 3 и Small 4 — выходили под Apache 2.0, одной из самых открытых лицензий. Medium 3.5 распространяется под Modified MIT: коммерческое использование разрешено, но для компаний с высокой выручкой предусмотрены исключения. Веса доступны на Hugging Face. Через API модель стоит $1,50 за млн входных токенов и $7,50 за млн выходных.
Второе крупное объявление касается инструмента Vibe — CLI-среды Mistral для разработчиков. Vibe получает облачных агентов: несколько задач могут выполняться параллельно в изолированных sandbox-окружениях без участия разработчика. Агент может открыть pull request по завершении работы, а локальная сессия переносится в облако вместе с историей и статусом задачи. Vibe интегрируется с GitHub, Linear, Jira, Sentry, Slack и Teams. Основные сценарии — рефакторинг модулей, генерация тестов, обновление зависимостей, исправление багов. Аналогичные решения уже есть у OpenAI, Anthropic и Cursor, так что Mistral догоняет рынок, а не задаёт направление.
Le Chat обновился до режима Work Mode, работающего на Medium 3.5. Режим рассчитан на многошаговые задачи: обработку почты, сообщений, календарных записей, структурированный поиск. Коннекторы к почтовым ящикам, календарям и документам включены по умолчанию — это упрощает настройку, но перекладывает ответственность за потоки данных на пользователя. Перед чувствительными действиями — отправкой сообщений или записью во внешние системы — Le Chat запрашивает явное подтверждение. Work Mode доступен на тарифах Pro, Team и Enterprise.


