Mistral Medium 3.5 появилась как ответ на запрос, который компания слышала от разработчиков и корпоративных клиентов: не хотим выбирать между моделью для чата, моделью для кода и моделью для сложных рассуждений. Теперь это один продукт.

Архитектурно Medium 3.5 — плотная (dense) модель: все 128 млрд параметров загружаются и активируются при генерации каждого токена. Это контрастирует с подходом Mixture of Experts (MoE), который используют конкуренты — DeepSeek, Qwen — и сама Mistral в других продуктах. Mistral Large 3, например, имеет 675 млрд суммарных параметров, но активирует лишь 41 млрд на токен. Mistral Small 4 при 119 млрд параметрах задействует всего 6 млрд. MoE дешевле в инференсе при сопоставимом качестве, поэтому выбор dense-архитектуры для флагмана — осознанный компромисс: дороже в эксплуатации, но проще в развёртывании и стабильнее в продакшне.

МодельАрхитектураВсего параметровАктивных на токенЛицензия
Mistral Medium 3.5Dense128 млрд128 млрдModified MIT
Mistral Large 3MoE675 млрд41 млрдApache 2.0
Mistral Small 4MoE119 млрд6 млрдApache 2.0

Окно контекста в 256 000 токенов позволяет обрабатывать большие кодовые базы или длинные документы за один запрос. Mistral заявляет, что модель можно развернуть самостоятельно на четырёх GPU — но на практике это доступно лишь организациям с серьёзной инфраструктурой, а не рядовым разработчикам.

Рассуждения стали параметром запроса (reasoning_effort), а не отдельной моделью — тренд всей отрасли.

Balkendiagramm mit Vergleich von Mistral Medium 3.5 (128B) gegen Claude Sonnet 4.5 und 4.6, Kimi K2.5, GLM 5.1 und Qwen3.5 in sechs agentischen Benchmarks: SWE-Bench Verified, τ³-Telecom, τ³-Airline, τ³-Retail, τ³-Banking und BrowseComp.
Balkendiagramm mit Vergleich von Mistral Medium 3.5 (128B) gegen Claude Sonnet 4.5 und 4.6, Kimi K2.5, GLM 5.1 und Qwen3.5 in sechs agentischen Benchmarks: SWE-Bench Verified, τ³-Telecom, τ³-Airline, τ³-Retail, τ³-Banking und BrowseComp. · Источник: The Decoder

Рассуждения в Medium 3.5 реализованы через параметр reasoning_effort: пользователь или разработчик выбирает между быстрым ответом и расширенным режимом для сложных задач. Это отражает общий сдвиг в отрасли — OpenAI, Anthropic и Google также отказываются от отдельных «reasoning-моделей» в пользу единого переключателя. Отдельно Mistral переписала визуальный энкодер с нуля: новая версия корректно обрабатывает изображения произвольного размера и соотношения сторон.

По собственным бенчмаркам Mistral, Medium 3.5 набирает 77,6% на SWE-Bench Verified (задачи по исправлению реальных GitHub-ошибок) и 91,4% на T3-Telecom (отраслевые задачи телекома). При этом компания сама признаёт отставание от Claude в банковских сценариях — редкая для пресс-релизов честность, которая говорит о том, что универсальность модели имеет свою цену.

Лицензионная политика изменилась. Предыдущие модели Mistral — Large 3 и Small 4 — выходили под Apache 2.0, одной из самых открытых лицензий. Medium 3.5 распространяется под Modified MIT: коммерческое использование разрешено, но для компаний с высокой выручкой предусмотрены исключения. Веса доступны на Hugging Face. Через API модель стоит $1,50 за млн входных токенов и $7,50 за млн выходных.

Второе крупное объявление касается инструмента Vibe — CLI-среды Mistral для разработчиков. Vibe получает облачных агентов: несколько задач могут выполняться параллельно в изолированных sandbox-окружениях без участия разработчика. Агент может открыть pull request по завершении работы, а локальная сессия переносится в облако вместе с историей и статусом задачи. Vibe интегрируется с GitHub, Linear, Jira, Sentry, Slack и Teams. Основные сценарии — рефакторинг модулей, генерация тестов, обновление зависимостей, исправление багов. Аналогичные решения уже есть у OpenAI, Anthropic и Cursor, так что Mistral догоняет рынок, а не задаёт направление.

Le Chat обновился до режима Work Mode, работающего на Medium 3.5. Режим рассчитан на многошаговые задачи: обработку почты, сообщений, календарных записей, структурированный поиск. Коннекторы к почтовым ящикам, календарям и документам включены по умолчанию — это упрощает настройку, но перекладывает ответственность за потоки данных на пользователя. Перед чувствительными действиями — отправкой сообщений или записью во внешние системы — Le Chat запрашивает явное подтверждение. Work Mode доступен на тарифах Pro, Team и Enterprise.