A Anthropic é uma startup de IA conhecida por desenvolver o chatbot Claude e por sua postura ética no uso militar da tecnologia. A empresa planeja uma rodada de captação de US$ 10 bilhões, visando uma avaliação de US$ 350 bilhões, e recentemente lançou uma ferramenta de cibersegurança baseada em IA que escaneia códigos em busca de vulnerabilidades. Apesar de negociações tensas com o Pentágono sobre restrições militares, o Claude foi supostamente usado em uma operação dos EUA, e a nova ferramenta de segurança da Anthropic já impactou o mercado de cibersegurança.
A Anthropic é uma startup de inteligência artificial (IA) conhecida por desenvolver o chatbot Claude. A empresa tem se destacado no cenário tecnológico por suas inovações em IA e por buscar capitalização significativa para impulsionar seu crescimento e desenvolvimento de novas tecnologias. A Anthropic também tem se posicionado em discussões sobre o uso ético da IA, especialmente em contextos militares, mantendo restrições sobre como suas tecnologias podem ser utilizadas pelas Forças Armadas. Mais recentemente, a Anthropic expandiu suas ofertas para incluir soluções de cibersegurança baseadas em IA, lançando uma ferramenta que escaneia códigos em busca de vulnerabilidades, impactando o mercado de software de segurança.
Contexto histórico e desenvolvimento
A Anthropic, criadora do chatbot Claude, tem demonstrado um rápido crescimento e ambições de expansão no setor de inteligência artificial. Em janeiro de 2026, a empresa planejava uma rodada de captação de recursos que visava levantar US$ 10 bilhões. Essa rodada, que poderia avaliar a startup em US$ 350 bilhões, seria liderada por investidores de peso como um fundo soberano de Singapura e a Coatue Management, indicando um forte interesse do mercado em suas soluções de IA.
Em fevereiro de 2026, a Anthropic se viu em uma disputa com o Pentágono dos EUA. A empresa insistiu em manter restrições sobre o uso de seus modelos de IA por militares, incluindo limites para armas totalmente autônomas e vigilância doméstica em massa. Esta postura levou a meses de negociações tensas, com o Pentágono considerando encerrar sua parceria com a Anthropic. Apesar das negociações, o modelo Claude da Anthropic foi reportado como tendo sido usado em uma operação militar dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro, através de uma parceria com a empresa de dados Palantir.
No final de fevereiro de 2026, a Anthropic anunciou um novo recurso de segurança integrado ao seu modelo de IA, Claude. Esta ferramenta é capaz de fazer varredura em bases de código em busca de vulnerabilidades de segurança e sugerir correções de software direcionadas para revisão humana. O anúncio provocou uma queda significativa nas ações de empresas de cibersegurança, como CrowdStrike, Cloudflare, Zscaler, SailPoint e Okta, refletindo o temor do mercado de que a IA possa reduzir a demanda por produtos legados de software e criar "perdedores da IA".
Linha do tempo
Janeiro de 2026: Anthropic planeja uma rodada de captação de US$ 10 bilhões, com potencial para avaliar a startup em US$ 350 bilhões.
Fevereiro de 2026: Pentágono considera encerrar parceria com a Anthropic devido a restrições da empresa sobre o uso militar de seus modelos de IA. Relatos indicam que o modelo Claude foi usado em operação militar dos EUA para capturar Nicolás Maduro, via parceria com a Palantir.
20 de fevereiro de 2026: Anthropic anuncia um novo recurso de segurança integrado ao Claude, capaz de escanear códigos em busca de vulnerabilidades e sugerir correções, causando uma queda nas ações de empresas de cibersegurança.
Principais atores
Anthropic: Startup de inteligência artificial.
Claude: Chatbot desenvolvido pela Anthropic.
Fundo soberano de Singapura: Um dos líderes na rodada de captação de recursos.
Coatue Management: Um dos líderes na rodada de captação de recursos.
Pentágono dos EUA: Órgão de defesa dos Estados Unidos, em negociação com a Anthropic sobre o uso de IA militar.
OpenAI: Empresa de IA, também pressionada pelo Pentágono para uso militar irrestrito.
Google: Empresa de tecnologia, também pressionada pelo Pentágono para uso militar irrestrito.
xAI: Empresa de IA, também pressionada pelo Pentágono para uso militar irrestrito.
Palantir: Empresa de dados, parceira da Anthropic no uso do Claude em operações militares.
CrowdStrike: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
Cloudflare: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
Zscaler: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
SailPoint: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
Okta: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
Joseph Gallo: Analista da Jefferies que comentou sobre o impacto da IA na cibersegurança.
Termos importantes
Startup: Empresa recém-criada que busca desenvolver um modelo de negócio repetível e escalável, geralmente com base em tecnologia.
Chatbot: Programa de computador que tenta simular uma conversa humana, geralmente por texto ou voz.
Rodada de captação: Processo pelo qual uma empresa levanta capital de investidores para financiar suas operações ou expansão.
Avaliação de startup: Estimativa do valor de mercado de uma empresa, geralmente antes de uma oferta pública inicial (IPO).
Ferramenta de segurança de IA: Recurso de inteligência artificial que escaneia códigos em busca de vulnerabilidades e sugere correções.
Perdedores da IA: Termo usado para empresas que podem ter seus negócios impactados negativamente pela ascensão e competição de tecnologias de inteligência artificial.
Vibe code: Capacidade de usar IA para escrever código, permitindo aos usuários criar seus próprios aplicativos e potencialmente reduzindo a demanda por produtos de software legados.