Terça-feira, 24 de fevereiro. Washington, Pentágono.
Dario Amodei, CEO da Anthropic, sentou-se frente a frente com o secretário de Defesa Pete Hegseth. De acordo com fontes citadas pela NPR e CNN, a reunião foi “cortês”, mas o conteúdo esteve longe de ser brando.
Hegseth deu um ultimato: até as 17h01 de sexta-feira, todas as restrições ao uso militar do Claude deveriam ser removidas, permitindo ao Pentágono utilizá-lo para “todas as finalidades legais”, incluindo direcionamento autônomo de armamentos e vigilância doméstica em larga escala.
Caso contrário, o contrato de US$ 200 milhões seria cancelado. A Lei de Produção de Defesa seria acionada para requisição compulsória. A Anthropic seria classificada como “risco à cadeia de suprimentos”—efetivamente entrando para a lista negra ao lado de adversários como Rússia e China.
Nesse mesmo dia, a Anthropic publicou a terceira edição de sua Política de Escalonamento Responsável (RSP 3.0), eliminando discretamente seu compromisso mais fundamental desde a fundação: não treinar modelos mais potentes sem garantias de segurança implementadas.
Também naquele dia, Elon Musk publicou no X: “A Anthropic praticou roubo em larga escala de dados de treinamento—isso é fato.” Ao mesmo tempo, as Notas da Comunidade do X destacavam reportagens sobre a Anthropic ter pago US$ 1,5 bilhão para encerrar processos envolvendo o treinamento do Claude com livros pirateados.
Em apenas setenta e duas horas, a empresa de IA—que já afirmou ter uma “alma”—foi retratada de três formas: mártir da segurança, ladra de propriedade intelectual e traidora do Pentágono.
Qual é a verdadeira Anthropic?
Talvez todas elas.
O primeiro aspecto da história é direto.
A Anthropic foi a primeira empresa de IA a obter acesso classificado do Departamento de Defesa dos EUA, com um contrato firmado no último verão e teto de US$ 200 milhões. OpenAI, Google e xAI posteriormente conquistaram contratos de valor semelhante.
Segundo a Al Jazeera, o Claude foi usado em uma operação militar dos EUA em janeiro. A reportagem indicava que a missão envolvia o sequestro do presidente venezuelano Maduro.
No entanto, a Anthropic estabeleceu dois limites claros: não apoiar o direcionamento totalmente autônomo de armamentos e não apoiar vigilância em larga escala de cidadãos dos EUA. A Anthropic sustenta que a IA não é confiável o suficiente para controlar armas, e não há legislação regulando IA em vigilância massiva.
O Pentágono não aceitou.
Em outubro passado, o conselheiro de IA da Casa Branca, David Sacks, acusou publicamente a Anthropic no X de “usar o medo como arma para capturar a regulação”.
Os concorrentes já cederam. OpenAI, Google e xAI autorizaram o uso militar de suas IAs para “todos os cenários legais”. O Grok, de Musk, foi recentemente aprovado para sistemas classificados.
A Anthropic é a última resistente.
Até o momento desta publicação, a Anthropic declarou em seu anúncio mais recente que não pretende ceder. Mas o prazo fatal de sexta-feira, 17h01, se aproxima rapidamente.
Um ex-interlocutor anônimo entre o Departamento de Justiça e o Pentágono disse à CNN: “Como declarar uma empresa ‘risco à cadeia de suprimentos’ e, ao mesmo tempo, obrigá-la a trabalhar para seu exército?”
É uma boa pergunta—mas não interessa ao Pentágono. O objetivo deles é: se a Anthropic não ceder, vão impor a conformidade ou deixá-la isolada em Washington.
No dia 23 de fevereiro, a Anthropic publicou um post contundente em seu blog acusando três empresas chinesas de IA—DeepSeek, Moonshot AI e MiniMax—de realizarem “ataques de destilação em escala industrial” contra o Claude.
A Anthropic alegou que essas empresas usaram 24.000 contas falsas para iniciar mais de 16 milhões de interações com o Claude, extraindo sistematicamente suas principais capacidades em raciocínio de agentes, uso de ferramentas e programação.
A Anthropic caracterizou isso como ameaça à segurança nacional, afirmando que modelos destilados “provavelmente não mantêm barreiras de segurança” e podem ser usados por governos autoritários para ciberataques, desinformação e vigilância em massa.
A narrativa foi planejada e elaborada com precisão.
Veio logo após o governo Trump flexibilizar o controle de exportação de chips para a China—exatamente quando a Anthropic buscava novos argumentos para sua atuação política sobre exportação de chips.
Mas Musk rebateu: “A Anthropic praticou roubo em larga escala de dados de treinamento e pagou bilhões em acordos. Isso é fato.”

Tory Green, cofundador da IO.Net, comentou: “Vocês treinam seus modelos com toda a internet, e quando outros aprendem com sua API pública, chamam isso de ‘ataque de destilação’?”
A Anthropic chama destilação de “ataque”, mas essa é uma prática padrão na indústria de IA. A OpenAI utilizou para comprimir o GPT-4, o Google otimizou o Gemini assim, e a própria Anthropic já recorreu ao método. A diferença agora: a Anthropic é o alvo.
Como afirmou Erik Cambria, professor de IA da Universidade Tecnológica de Nanyang, à CNBC: “A linha entre uso legítimo e exploração maliciosa é frequentemente tênue.”
Ainda mais irônico, a Anthropic acabou de pagar US$ 1,5 bilhão para encerrar processos por treinar o Claude com livros pirateados. Treinaram com toda a internet e agora acusam outros de aprenderem com sua API pública. Não é apenas padrão duplo—é padrão triplo.
A Anthropic tentou se colocar como vítima, mas acabou como acusada.
No mesmo dia em que confrontou o Pentágono e polemizou com o Vale do Silício, a Anthropic lançou a terceira versão de sua Política de Escalonamento Responsável.
O cientista-chefe Jared Kaplan declarou à imprensa: “Não acreditamos que interromper o treinamento de modelos de IA ajude alguém. Com o avanço acelerado da IA, assumir compromissos unilaterais enquanto os concorrentes avançam a todo vapor não faz sentido.”
Ou seja, se os outros não seguem as regras, nós também não seguiremos.
O cerne da RSP 1.0 e 2.0 era um compromisso rígido: se as capacidades do modelo excedessem a cobertura das medidas de segurança, o treinamento seria pausado. Esse compromisso deu à Anthropic uma reputação única na comunidade de segurança em IA.
Mas a versão 3.0 eliminou essa promessa.
Ela foi substituída por uma estrutura mais “flexível”—separando as medidas de segurança que a Anthropic pode adotar das recomendações para o setor. A cada 3 a 6 meses, será publicado um relatório de riscos, com avaliação externa de especialistas.
Isso soa responsável?
Chris Painter, revisor independente da ONG METR, afirmou após analisar um rascunho: “Isso mostra que a Anthropic acredita precisar entrar em ‘modo de triagem’, pois avaliação e mitigação de riscos não acompanham o crescimento das capacidades. É mais uma evidência de que a sociedade não está pronta para riscos catastróficos da IA.”
A TIME noticiou que a Anthropic passou quase um ano debatendo internamente essa reescrita, com aprovação unânime do CEO Amodei e do conselho. Oficialmente, a política original buscava promover consenso no setor—mas o setor não acompanhou. O governo Trump adotou postura de não intervenção em IA, chegando a tentar revogar leis estaduais. Uma legislação federal sobre IA segue fora de alcance. Em 2023, parecia possível um marco global de governança, mas três anos depois, essa porta se fechou.
Um pesquisador veterano e anônimo em governança de IA foi direto: “A RSP é o ativo de marca mais valioso da Anthropic. Remover a pausa no treinamento é como uma empresa de alimentos orgânicos tirar discretamente o ‘orgânico’ do rótulo e dizer que agora seus testes são mais transparentes.”
No início de fevereiro, a Anthropic concluiu uma rodada de captação de US$ 30 bilhões, atingindo valuation de US$ 380 bilhões, com a Amazon como investidora principal. Desde a fundação, alcançou US$ 14 bilhões em receita anualizada, e nos últimos três anos esse valor cresceu mais de dez vezes ao ano.
Ao mesmo tempo, o Pentágono ameaça colocar a empresa na lista negra. Musk a acusa publicamente de roubo de dados. O compromisso central de segurança foi abandonado. O chefe de segurança de IA da Anthropic, Mrinank Sharma, renunciou e escreveu no X: “O mundo está em perigo.”
Contradição?
Talvez a contradição seja o DNA da Anthropic.
Fundada por ex-executivos da OpenAI preocupados com o ritmo de segurança da empresa, a Anthropic acabou desenvolvendo modelos ainda mais poderosos, mais rapidamente, enquanto alertava o mundo sobre os perigos desses modelos.
O modelo de negócios, em resumo: tememos a IA mais do que qualquer um, então você deve nos pagar para construí-la.
Essa narrativa funcionou perfeitamente em 2023–2024. Segurança em IA virou palavra de ordem em Washington, e a Anthropic era a lobista do momento.
Em 2026, os ventos mudaram.
“Woke AI” tornou-se insulto político, regulações estaduais de IA foram bloqueadas pela Casa Branca, e apesar da aprovação do SB 53 da Califórnia (com apoio da Anthropic), nada avançou em nível federal.
A narrativa de segurança da Anthropic está migrando de “diferencial” para “passivo político”.
A Anthropic realiza um difícil equilíbrio—precisa ser “segura” o suficiente para manter a marca, mas “flexível” para não ser rejeitada pelo mercado ou governo. O problema: a tolerância de ambos os lados está diminuindo.
Considerando os três eventos, o cenário é claro.
Acusar empresas chinesas de destilar o Claude fortalece o lobby por controle de exportação de chips. Abandonar a pausa de segurança mantém a Anthropic na corrida armamentista. Recusar a exigência do Pentágono por armas autônomas preserva seu último resquício de credibilidade moral.
Cada movimento é lógico, mas todos se contradizem.
Não se pode alegar que empresas chinesas “destilando” seu modelo ameaçam a segurança nacional e, ao mesmo tempo, eliminar o próprio compromisso de evitar que o modelo saia do controle. Se o modelo é tão perigoso, deveria haver mais cautela, não mais agressividade.
A não ser que você seja a Anthropic.
No setor de IA, a identidade não se define por declarações—mas pelo balanço patrimonial. A narrativa de “segurança” da Anthropic é, essencialmente, um diferencial de marca.
No início da corrida armamentista da IA, esse diferencial era valioso. Investidores pagavam mais por “IA responsável”, governos aprovavam “IA confiável” e clientes buscavam “IA mais segura”.
Mas em 2026, esse diferencial está desaparecendo.
A Anthropic agora enfrenta não a dúvida sobre “devemos ceder?”, mas sim “a quem ceder primeiro?”. Se ceder ao Pentágono, a marca sofre. Se ceder aos concorrentes, o compromisso de segurança é anulado. Se ceder aos investidores, ambos os lados terão de fazer concessões.
Às 17h01 de sexta-feira, a Anthropic dará sua resposta.
Independentemente do resultado, uma coisa é certa: a Anthropic que prosperava com o discurso “somos diferentes da OpenAI” está se tornando igual a todas as outras.
O fim de uma crise de identidade costuma ser o desaparecimento da própria identidade.





