Primeiro modelo a unificar instruct, raciocínio e multimodal num único deploy Apache 2.0 com 256K de contexto.
A Mistral AI lançou o Mistral Small 4, modelo Mixture-of-Experts com 119 bilhões de parâmetros totais, 128 experts e apenas 6,5 bilhões de parâmetros ativos por token. É o primeiro modelo a unificar instruct, raciocínio, multimodal e coding agêntico num único deploy, substituindo quatro modelos anteriores.
Com 256K tokens de contexto, modo de raciocínio alternável por requisição e function calling nativo, o Small 4 entrega 40% menos latência e 3x mais requisições por segundo que o Small 3. Roda em 2 GPUs via vLLM com quantização NVFP4 disponível, sob licença Apache 2.0.
13 mar, 09:00
7 mar, 09:00
6 mar, 09:00
6 mar, 09:00
26 fev, 14:57