Modelo saltou de 53% para 74,4% no SWE-bench em relação à versão anterior; treinamento levou menos de 3 meses.
A Tencent apresentou o Hy3-preview (Hunyuan 3.0 Preview), modelo MoE com 295 bilhões de parâmetros totais e 21 bilhões ativados, o primeiro sob a liderança de Yao Shunyu, pesquisador recrutado da OpenAI como Cientista-Chefe de IA. O modelo saltou de 53% para 74,4% no SWE-bench Verified em relação ao Hunyuan 2.0 — melhoria de mais de 40% na capacidade de codificação.
O treinamento começou no final de janeiro e levou menos de três meses. A Tencent destacou que capacidades agênticas foram uma das áreas com maior avanço nesta versão.
3 abr, 09:00
2 abr, 09:00
29 mar, 09:00
2 mar, 15:30
1 mar, 13:19