Modelo de mistura de especialistas tem 35 bilhões de parâmetros totais mas apenas 3 bilhões ativos por token; versão comprimida roda em hardware doméstico.
A Alibaba publicou o Qwen3.6-35B-A3B, modelo de linguagem sob licença aberta baseado em mistura de especialistas (MoE). Com 35 bilhões de parâmetros totais mas apenas 3 bilhões ativos por token, o modelo reduz o custo computacional em cerca de 90% em relação a arquiteturas densas equivalentes.
No SWE-bench Verified, atinge 73,4%, superando o Gemma4-31B do Google por 21,4 pontos. O modelo é nativamente multimodal, processando texto, imagem e vídeos de até uma hora. Uma versão comprimida de 21 GB roda em placas de vídeo domésticas como a RTX 4090.
17 abr, 09:00
2 abr, 09:00
1 abr, 09:00
31 mar, 09:00
26 fev, 18:39