O Pentágono classificou a Anthropic como risco à cadeia de suprimentos dos EUA após o fracasso das negociações sobre o uso de sua IA, devido a preocupações com vigilância e armas autônomas.
O Pentágono classificou oficialmente a Anthropic, desenvolvedora de inteligência artificial, como um risco para a cadeia de suprimentos dos EUA. A decisão foi comunicada por um alto funcionário de Defesa à Bloomberg, após o fracasso das negociações entre o CEO da Anthropic, Dario Amodei, e o subsecretário Emil Michael. A empresa buscava garantias contra o uso de sua tecnologia para vigilância em massa e armas autônomas, o que levou o secretário de Defesa, Pete Hegseth, a considerar a Anthropic um risco, um rótulo geralmente reservado a adversários.
Essa classificação pode ter sérias implicações para a Anthropic, avaliada em US$ 380 bilhões, e para os militares, que dependiam de ferramentas como o Claude Gov para operar na nuvem sigilosa do Pentágono. Um funcionário de Defesa afirmou que as Forças Armadas não permitirão que um fornecedor limite o uso legal de uma capacidade crítica, colocando soldados em risco. A situação contrasta com a OpenAI, que já possui um acordo similar com o Pentágono para uso de IA em rede classificada, e ocorre mesmo após o Claude ter sido utilizado na ofensiva militar dos EUA contra o Irã para avaliações de inteligência e simulação de cenários, apesar de uma ordem de Donald Trump para interromper o uso de programas da Anthropic por agências federais.