O '/goals' do Claude Code separa o agente que executa do que decide que o trabalho terminou
A Anthropic introduziu a funcionalidade '/goals' no Claude Code, que aprimora a confiabilidade de agentes de IA ao separar formalmente o modelo que executa a tarefa do modelo avaliador que determina sua conclusão.
|
14/05 às 15:12
Pontos principais
- A nova funcionalidade '/goals' do Claude Code implementa uma camada de avaliação independente para evitar que agentes de IA encerrem tarefas prematuramente.
- O sistema utiliza um modelo avaliador, como o Haiku, para verificar após cada etapa se as condições definidas pelo usuário foram atingidas.
- A abordagem visa resolver falhas comuns em pipelines de agentes onde o modelo executor não consegue julgar com precisão o próprio trabalho.
- Empresas como Google e OpenAI possuem abordagens diferentes para a orquestração de agentes, mas a solução da Anthropic busca simplificar a implementação nativa.
- Especialistas apontam que a separação entre 'executor' e 'juiz' é uma prática de design robusta, especialmente para tarefas determinísticas como migrações de código.
- A funcionalidade reduz a necessidade de plataformas de observabilidade de terceiros ao integrar a lógica de verificação diretamente no fluxo do agente.
Mencionado nesta matéria
Pessoas
Sean Brownell (diretor de soluções da Sprinklr)
Organizações
AnthropicOpenAIGoogleLangChainSprinklrVentureBeat

