Французский стартап представил альтернативу DeepSeek

Mistral AI выпустили новое опенсорсное семейство моделей, и это не просто очередной релиз. 4 модели сразу: 3 компактных модели на 14, 8 и 3 млрд параметров плюс флагманская Mistral Large 3.

Mistral Large 3 обучали с нуля на 3 тыс. NVIDIA H200 GPU. Вполне приличный кластер. И это первая MoE-модель стартапа со времён знаменитой Mixtral. 675 млрд параметров, 41 млрд активных. По метрикам модель дотягивает до DeepSeek 3 и 1 и Kimi K2.

Отдельно хвастаются мультиязычностью. Заявляют, что на языках, кроме английского и китайского, их модель лучшая в своём классе. Плюс понимание изображений.

Mistral Small 3 выдаёт свыше 81% на MMLU. Для компактной модели это очень высокий показатель при низких задержках.

Mistral Medium 3 и 1 заняла первое место в категории English (no style control), второе в общем зачёте. Плюс топ-3 в задачах кодирования и длинных запросов. Показывает около 90% качества тяжёлых моделей, но при существенно меньших ресурсных затратах.

Получается, Mistral делает ставку не на гонку параметров, а на разнообразие. От крошечных моделей для устройств с ограниченными ресурсами до флагмана корпоративного уровня. И всё это под открытой лицензией. 1 из лучших соотношений цена-производительность на рынке, как они сами заявляют.