Visão geral
A Anthropic é uma startup de inteligência artificial (IA) conhecida por desenvolver o chatbot Claude. A empresa tem se destacado no cenário tecnológico por suas inovações em IA e por buscar capitalização significativa para impulsionar seu crescimento e desenvolvimento de novas tecnologias. A Anthropic também tem se posicionado em discussões sobre o uso ético da IA, especialmente em contextos militares, mantendo restrições sobre como suas tecnologias podem ser utilizadas pelas Forças Armadas. Mais recentemente, a Anthropic expandiu suas ofertas para incluir soluções de cibersegurança baseadas em IA, lançando uma ferramenta que escaneia códigos em busca de vulnerabilidades, impactando o mercado de software de segurança.
Contexto histórico e desenvolvimento
A Anthropic, criadora do chatbot Claude, tem demonstrado um rápido crescimento e ambições de expansão no setor de inteligência artificial. Em janeiro de 2026, a empresa planejava uma rodada de captação de recursos que visava levantar US$ 10 bilhões. Essa rodada, que poderia avaliar a startup em US$ 350 bilhões, seria liderada por investidores de peso como um fundo soberano de Singapura e a Coatue Management, indicando um forte interesse do mercado em suas soluções de IA.
Em fevereiro de 2026, a Anthropic se viu em uma disputa com o Pentágono dos EUA. A empresa insistiu em manter restrições sobre o uso de seus modelos de IA por militares, incluindo limites para armas totalmente autônomas e vigilância doméstica em massa. Esta postura levou a meses de negociações tensas, com o Pentágono considerando encerrar sua parceria com a Anthropic. Apesar das negociações, o modelo Claude da Anthropic foi reportado como tendo sido usado em uma operação militar dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro, através de uma parceria com a empresa de dados Palantir.
No final de fevereiro de 2026, a Anthropic anunciou um novo recurso de segurança integrado ao seu modelo de IA, Claude. Esta ferramenta é capaz de fazer varredura em bases de código em busca de vulnerabilidades de segurança e sugerir correções de software direcionadas para revisão humana. O anúncio provocou uma queda significativa nas ações de empresas de cibersegurança, como CrowdStrike, Cloudflare, Zscaler, SailPoint e Okta, refletindo o temor do mercado de que a IA possa reduzir a demanda por produtos legados de software e criar "perdedores da IA".
Linha do tempo
- Janeiro de 2026: Anthropic planeja uma rodada de captação de US$ 10 bilhões, com potencial para avaliar a startup em US$ 350 bilhões.
- Fevereiro de 2026: Pentágono considera encerrar parceria com a Anthropic devido a restrições da empresa sobre o uso militar de seus modelos de IA. Relatos indicam que o modelo Claude foi usado em operação militar dos EUA para capturar Nicolás Maduro, via parceria com a Palantir.
- 20 de fevereiro de 2026: Anthropic anuncia um novo recurso de segurança integrado ao Claude, capaz de escanear códigos em busca de vulnerabilidades e sugerir correções, causando uma queda nas ações de empresas de cibersegurança.
Principais atores
- Anthropic: Startup de inteligência artificial.
- Claude: Chatbot desenvolvido pela Anthropic.
- Fundo soberano de Singapura: Um dos líderes na rodada de captação de recursos.
- Coatue Management: Um dos líderes na rodada de captação de recursos.
- Pentágono dos EUA: Órgão de defesa dos Estados Unidos, em negociação com a Anthropic sobre o uso de IA militar.
- OpenAI: Empresa de IA, também pressionada pelo Pentágono para uso militar irrestrito.
- Google: Empresa de tecnologia, também pressionada pelo Pentágono para uso militar irrestrito.
- xAI: Empresa de IA, também pressionada pelo Pentágono para uso militar irrestrito.
- Palantir: Empresa de dados, parceira da Anthropic no uso do Claude em operações militares.
- CrowdStrike: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
- Cloudflare: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
- Zscaler: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
- SailPoint: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
- Okta: Empresa de cibersegurança cujas ações caíram após o anúncio da Anthropic.
- Joseph Gallo: Analista da Jefferies que comentou sobre o impacto da IA na cibersegurança.
Termos importantes
- Startup: Empresa recém-criada que busca desenvolver um modelo de negócio repetível e escalável, geralmente com base em tecnologia.
- Chatbot: Programa de computador que tenta simular uma conversa humana, geralmente por texto ou voz.
- Rodada de captação: Processo pelo qual uma empresa levanta capital de investidores para financiar suas operações ou expansão.
- Avaliação de startup: Estimativa do valor de mercado de uma empresa, geralmente antes de uma oferta pública inicial (IPO).
- Ferramenta de segurança de IA: Recurso de inteligência artificial que escaneia códigos em busca de vulnerabilidades e sugere correções.
- Perdedores da IA: Termo usado para empresas que podem ter seus negócios impactados negativamente pela ascensão e competição de tecnologias de inteligência artificial.
- Vibe code: Capacidade de usar IA para escrever código, permitindo aos usuários criar seus próprios aplicativos e potencialmente reduzindo a demanda por produtos de software legados.