A nova ferramenta separa o modelo executor do avaliador, garantindo maior precisão na conclusão de tarefas complexas de programação.

A Anthropic introduziu a funcionalidade '/goals' no Claude Code, uma atualização projetada para aumentar a confiabilidade de agentes de IA em tarefas de desenvolvimento. A solução implementa uma separação formal entre o modelo responsável pela execução do código e um modelo avaliador, que atua como um juiz independente. Ao utilizar modelos como o Haiku para verificar se as condições de sucesso foram atingidas após cada etapa, o sistema mitiga erros comuns onde agentes encerram processos antes da conclusão real. Essa arquitetura de design, que separa a execução da validação, é considerada uma prática robusta para tarefas determinísticas, como migrações de código. Ao integrar essa lógica de verificação diretamente no fluxo de trabalho, a Anthropic simplifica a implementação de agentes autônomos e reduz a necessidade de ferramentas externas de observabilidade, oferecendo um controle mais preciso sobre o ciclo de vida das tarefas.
11 mai, 18:35
7 mai, 09:00
6 mai, 14:06
28 abr, 13:04
26 mar, 15:03
Carregando comentários...