A Anthropic é uma startup de IA conhecida por desenvolver o chatbot Claude e por sua postura ética no uso militar da tecnologia. A empresa planeja uma rodada de captação de US$ 10 bilhões, visando uma avaliação de US$ 350 bilhões, e recentemente lançou uma ferramenta de cibersegurança baseada em IA que escaneia códigos em busca de vulnerabilidades. Apesar de negociações tensas com o Pentágono sobre restrições militares, o Claude foi supostamente usado em uma operação dos EUA, e a nova ferramenta de segurança da Anthropic já impactou o mercado de cibersegurança.
A Anthropic é uma startup de inteligência artificial (IA) conhecida por desenvolver o chatbot Claude. A empresa tem se destacado no cenário tecnológico por suas inovações em IA e por buscar capitalização significativa para impulsionar seu crescimento e desenvolvimento de novas tecnologias. A Anthropic também tem se posicionado em discussões sobre o uso ético da IA, especialmente em contextos militares, mantendo restrições sobre como suas tecnologias podem ser utilizadas pelas Forças Armadas. Mais recentemente, a Anthropic expandiu suas ofertas para incluir soluções de cibersegurança baseadas em IA, lançando uma ferramenta que escaneia códigos em busca de vulnerabilidades, impactando o mercado de software de segurança.
A Anthropic, criadora do chatbot Claude, tem demonstrado um rápido crescimento e ambições de expansão no setor de inteligência artificial. Em janeiro de 2026, a empresa planejava uma rodada de captação de recursos que visava levantar US$ 10 bilhões. Essa rodada, que poderia avaliar a startup em US$ 350 bilhões, seria liderada por investidores de peso como um fundo soberano de Singapura e a Coatue Management, indicando um forte interesse do mercado em suas soluções de IA.
Em fevereiro de 2026, a Anthropic se viu em uma disputa com o Pentágono dos EUA. A empresa insistiu em manter restrições sobre o uso de seus modelos de IA por militares, incluindo limites para armas totalmente autônomas e vigilância doméstica em massa. Esta postura levou a meses de negociações tensas, com o Pentágono considerando encerrar sua parceria com a Anthropic. Apesar das negociações, o modelo Claude da Anthropic foi reportado como tendo sido usado em uma operação militar dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro, através de uma parceria com a empresa de dados Palantir.
No final de fevereiro de 2026, a Anthropic anunciou um novo recurso de segurança integrado ao seu modelo de IA, Claude. Esta ferramenta é capaz de fazer varredura em bases de código em busca de vulnerabilidades de segurança e sugerir correções de software direcionadas para revisão humana. O anúncio provocou uma queda significativa nas ações de empresas de cibersegurança, como CrowdStrike, Cloudflare, Zscaler, SailPoint e Okta, refletindo o temor do mercado de que a IA possa reduzir a demanda por produtos legados de software e criar "perdedores da IA".