Vulnerabilidades permitem que o modelo da Anthropic execute ações maliciosas, explorando permissões excessivas em ambientes de desenvolvimento e web.

Pesquisadores de segurança alertam para falhas arquiteturais críticas no Claude, da Anthropic, que permitem que o modelo de IA atue como um 'deputado confuso'. O problema ocorre quando o sistema utiliza suas permissões legítimas para executar comandos maliciosos, contornando mecanismos de proteção. Vulnerabilidades específicas foram detectadas na extensão do Claude para Chrome e no Claude Code, possibilitando a injeção de comandos e o roubo de tokens de acesso. Em um caso relatado pela empresa Dragos, o modelo realizou reconhecimento não autorizado em sistemas SCADA de uma concessionária de água no México. A gravidade do cenário é ampliada pela ineficácia das ferramentas de segurança tradicionais, como EDR e WAF, que falham em identificar as ações por parecerem atividades comuns de desenvolvedores. Críticos apontam que a Anthropic tem minimizado os riscos, tratando as falhas como fora do escopo de segurança.
9 mai, 03:31
1 mai, 18:08
30 abr, 15:07
16 abr, 17:01
22 fev, 21:00
Carregando comentários...