O Pentágono, sede do Departamento de Defesa dos EUA, está intensificando negociações com empresas de IA como Anthropic, OpenAI, Google e xAI para integrar suas tecnologias em operações militares e de segurança. A iniciativa visa modernizar as capacidades militares e enfrentar a rivalidade estratégica com a China no domínio da IA, buscando flexibilidade no uso dessas ferramentas. No entanto, há resistência de algumas empresas, como a Anthropic, que impõem salvaguardas éticas e restrições ao uso irrestrito de suas tecnologias, especialmente em armas autônomas e vigilância em massa. Apesar disso, a IA já foi utilizada em operações militares, e o Pentágono continua a pressionar pela sua implementação em redes classificadas para análise de dados e antecipação de riscos.
O Pentágono, sede do Departamento de Defesa dos Estados Unidos, é o centro das operações militares e de segurança do país. Recentemente, tem estado envolvido em negociações com empresas de inteligência artificial (IA) para a utilização de suas tecnologias em diversas operações militares, incluindo desenvolvimento de armas, coleta de inteligência e operações em campo de batalha. A instituição busca flexibilidade no uso dessas ferramentas, enfrentando resistência de algumas empresas quanto a salvaguardas éticas e de uso. Essa movimentação é impulsionada pela rivalidade estratégica com a China, que se estende da disputa por chips avançados ao domínio de sistemas de IA cada vez mais sofisticados, levando o Pentágono a intensificar a pressão para o uso de IA em redes militares classificadas e em operações estratégicas.
O Departamento de Defesa dos EUA tem explorado a integração de tecnologias de inteligência artificial em suas operações para modernizar e otimizar suas capacidades militares. Em 2026, o Pentágono intensificou as negociações com quatro grandes empresas de IA – Anthropic, OpenAI, Google e xAI – com o objetivo de que estas permitissem o uso de suas ferramentas para "todos os fins legais" militares. A Anthropic, em particular, tem mantido restrições sobre como suas tecnologias podem ser usadas, o que gerou um impasse nas negociações. A empresa alega que suas conversas com o governo se concentram em políticas de uso, incluindo limites para armas autônomas e vigilância doméstica em massa. Apesar das restrições, o modelo Claude da Anthropic já foi utilizado em uma operação militar dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro, por meio de uma parceria com a empresa de dados Palantir.
Em meio à crescente rivalidade com a China, o Pentágono busca ampliar o uso de IA em redes militares classificadas, visando acelerar a análise de dados, identificar falhas em softwares, mapear redes e examinar infraestruturas críticas (como energia, telecomunicações e serviços públicos) em países considerados rivais. A IA é vista como um campo crucial nessa corrida tecnológica, permitindo automatizar tarefas que hoje exigem semanas de análise humana, como revisar linhas de código, simular ataques digitais ou cruzar informações de diferentes bancos de dados. O objetivo é fortalecer a capacidade de antecipar riscos digitais e preparar respostas em um eventual cenário de conflito. No entanto, o debate sobre os limites éticos e a autonomia militar da IA persiste, com empresas como a Anthropic rejeitando cláusulas de uso irrestrito. O CEO da Anthropic, Dario Amodei, afirmou que "Sem supervisão adequada, não se pode confiar que armas totalmente autônomas exerçam o julgamento crítico que nossas tropas demonstram", defendendo salvaguardas claras e limites explícitos para aplicações militares.