A empresa de IA Anthropic processou o Pentágono após a recusa em conceder acesso irrestrito à sua tecnologia por questões éticas, gerando uma disputa sobre IA militar.
A empresa de inteligência artificial Anthropic processou o Pentágono após uma disputa sobre o uso e acesso à sua tecnologia. A Anthropic se recusou a conceder acesso irrestrito ao Pentágono, alegando limites éticos contra vigilância em massa e o desenvolvimento de armas autônomas. A controvérsia se intensificou após o uso não autorizado do software Claude da Anthropic em uma operação para capturar Nicolás Maduro na Venezuela.
Em resposta, o Pentágono classificou a Anthropic como um "risco para a cadeia de suprimentos", e o presidente Donald Trump ordenou que agências federais parassem de usar a tecnologia da empresa. Especialistas jurídicos avaliam que a Anthropic tem grandes chances de vencer o processo, o que evidencia a carência de regulamentação clara para a inteligência artificial no contexto militar e a ausência de um tratado internacional vinculativo sobre armas autônomas, criando um "vácuo de responsabilidade" em casos de violações.
11 mar, 16:01
5 mar, 13:01
28 fev, 10:55
26 fev, 15:01
15 fev, 14:01