Mistral Small 4: modelo MoE de 119B parâmetros no Hugging Face
Hugging Face: Card do modelo com specs completas — 128 experts, 6,5B ativos, 256K contexto, Apache 2.0.
|
16/03 às 09:00
Pontos principais
- 128 experts com 4 ativos por token
- Suporta 20+ idiomas com raciocínio alternável por requisição
- Substitui Mistral Small, Magistral, Pixtral e Devstral
Mencionado nesta matéria
Organizações
Mistral AI
Lugares
Paris
