Novo modelo lidera benchmarks sintéticos, mas no SWE-Bench Pro marca 58,6% contra 64,3% do Claude Opus 4.7 da Anthropic.
A OpenAI lançou o GPT-5.5, que alcançou 82,7% no Terminal-Bench 2.0, superando o Claude Opus 4.7 (69,4%) e o Gemini 3.1 Pro (68,5%) em benchmarks sintéticos. No entanto, em bugs reais do GitHub medidos pelo SWE-Bench Pro, o resultado ainda fica aquém: 58,6% contra 64,3% do Opus 4.7 da Anthropic.
O modelo custa US$5 por milhão de tokens de input e US$30 por milhão de output — o dobro do GPT-5.4 — mas a OpenAI diz que ele usa cerca de 40% menos tokens de output para tarefas equivalentes, limitando o aumento real de custo a cerca de 20%. Disponível para usuários Plus, Pro, Business e Enterprise.
21 abr, 09:00
17 abr, 09:00
28 mar, 09:00
14 mar, 09:00
6 mar, 09:00