Uma falha de segurança no Model Context Protocol (MCP) da Anthropic, que permite a execução de comandos arbitrários em 200.000 servidores de IA, é classificada pela empresa como um "recurso", gerando preocupações de segurança.

Pesquisadores da OX Security descobriram uma falha de execução de comando no Model Context Protocol (MCP) da Anthropic, que afeta aproximadamente 200.000 servidores de agentes de inteligência artificial. A vulnerabilidade reside no transporte STDIO do MCP, que executa comandos do sistema operacional sem sanitização, permitindo a execução arbitrária de código. Contudo, a Anthropic classificou esse comportamento como um "recurso esperado", argumentando que a responsabilidade pela sanitização dos comandos recai sobre o desenvolvedor, e recusou-se a alterar o protocolo.
Essa postura gerou sérias preocupações na comunidade de segurança cibernética, com especialistas alertando para uma "lacuna chocante na segurança da infraestrutura fundamental de IA". Embora algumas plataformas já tenham implementado correções para pontos de entrada específicos, o comportamento padrão inseguro do protocolo MCP STDIO permanece inalterado. Recomendações incluem a auditoria e isolamento de todas as implantações MCP, tratando as configurações STDIO como superfícies de entrada não confiáveis.
24 abr, 08:06
21 abr, 19:34
19 abr, 16:01
12 abr, 12:02
24 jul, 21:00