Mixture-of-experts com 13B ativos, Apache 2.0, atrás apenas do Opus 4.6 por 4% do preço.
A Arcee AI liberou o Trinity-Large-Thinking, modelo de código aberto com 400 bilhões de parâmetros totais e 13 bilhões ativos via arquitetura mixture-of-experts. O modelo ficou em segundo lugar no PinchBench — benchmark de programação agêntica — atrás apenas do Opus 4.6, custando ~96% menos ($0,90 por milhão de tokens).
Lançado sob licença Apache 2.0 no Hugging Face, o Trinity-Large-Thinking usa 'thinking' antes de responder, o que melhora tool calling multi-turn, coerência de contexto e estabilidade em loops agênticos de longa duração. A Arcee enquadra a liberação como defesa de que 'open weights americanos permissivos são necessários para os EUA liderarem em IA'.
28 mar, 09:00
26 mar, 15:03
7 mar, 09:00
5 mar, 09:00
1 mar, 13:19