As 72 horas da crise de identidade da Anthropic

2026-03-05 07:03:46
intermediário
Blockchain
Em apenas setenta e duas horas, a Anthropic encarou um ultimato do Pentágono, denúncias públicas de Elon Musk e a revogação de seus próprios compromissos de segurança. Da recusa em criar armas militares autônomas à revisão do RSP 3.0 e ao abandono da linha vermelha "pause training", a empresa—reconhecida como referência em "safe AI"—agora enfrenta um abismo cada vez maior entre sua reputação e a prática operacional. Este artigo explora as forças políticas, as pressões de valorização e o esvaziamento do discurso de segurança que alimentam essa crise de identidade.

Terça-feira, 24 de fevereiro. Washington, Pentágono.

Dario Amodei, CEO da Anthropic, sentou-se frente a frente com o secretário de Defesa Pete Hegseth. De acordo com fontes citadas pela NPR e CNN, a reunião foi “cortês”, mas o conteúdo esteve longe de ser brando.

Hegseth deu um ultimato: até as 17h01 de sexta-feira, todas as restrições ao uso militar do Claude deveriam ser removidas, permitindo ao Pentágono utilizá-lo para “todas as finalidades legais”, incluindo direcionamento autônomo de armamentos e vigilância doméstica em larga escala.

Caso contrário, o contrato de US$ 200 milhões seria cancelado. A Lei de Produção de Defesa seria acionada para requisição compulsória. A Anthropic seria classificada como “risco à cadeia de suprimentos”—efetivamente entrando para a lista negra ao lado de adversários como Rússia e China.

Nesse mesmo dia, a Anthropic publicou a terceira edição de sua Política de Escalonamento Responsável (RSP 3.0), eliminando discretamente seu compromisso mais fundamental desde a fundação: não treinar modelos mais potentes sem garantias de segurança implementadas.

Também naquele dia, Elon Musk publicou no X: “A Anthropic praticou roubo em larga escala de dados de treinamento—isso é fato.” Ao mesmo tempo, as Notas da Comunidade do X destacavam reportagens sobre a Anthropic ter pago US$ 1,5 bilhão para encerrar processos envolvendo o treinamento do Claude com livros pirateados.

Em apenas setenta e duas horas, a empresa de IA—que já afirmou ter uma “alma”—foi retratada de três formas: mártir da segurança, ladra de propriedade intelectual e traidora do Pentágono.

Qual é a verdadeira Anthropic?

Talvez todas elas.

Mandato do Pentágono: “Cumpra ou Saia”

O primeiro aspecto da história é direto.

A Anthropic foi a primeira empresa de IA a obter acesso classificado do Departamento de Defesa dos EUA, com um contrato firmado no último verão e teto de US$ 200 milhões. OpenAI, Google e xAI posteriormente conquistaram contratos de valor semelhante.

Segundo a Al Jazeera, o Claude foi usado em uma operação militar dos EUA em janeiro. A reportagem indicava que a missão envolvia o sequestro do presidente venezuelano Maduro.

No entanto, a Anthropic estabeleceu dois limites claros: não apoiar o direcionamento totalmente autônomo de armamentos e não apoiar vigilância em larga escala de cidadãos dos EUA. A Anthropic sustenta que a IA não é confiável o suficiente para controlar armas, e não há legislação regulando IA em vigilância massiva.

O Pentágono não aceitou.

Em outubro passado, o conselheiro de IA da Casa Branca, David Sacks, acusou publicamente a Anthropic no X de “usar o medo como arma para capturar a regulação”.

Os concorrentes já cederam. OpenAI, Google e xAI autorizaram o uso militar de suas IAs para “todos os cenários legais”. O Grok, de Musk, foi recentemente aprovado para sistemas classificados.

A Anthropic é a última resistente.

Até o momento desta publicação, a Anthropic declarou em seu anúncio mais recente que não pretende ceder. Mas o prazo fatal de sexta-feira, 17h01, se aproxima rapidamente.

Um ex-interlocutor anônimo entre o Departamento de Justiça e o Pentágono disse à CNN: “Como declarar uma empresa ‘risco à cadeia de suprimentos’ e, ao mesmo tempo, obrigá-la a trabalhar para seu exército?”

É uma boa pergunta—mas não interessa ao Pentágono. O objetivo deles é: se a Anthropic não ceder, vão impor a conformidade ou deixá-la isolada em Washington.

“Ataque de Destilação”: Acusação Pública Sai Pela Culatra

No dia 23 de fevereiro, a Anthropic publicou um post contundente em seu blog acusando três empresas chinesas de IA—DeepSeek, Moonshot AI e MiniMax—de realizarem “ataques de destilação em escala industrial” contra o Claude.

A Anthropic alegou que essas empresas usaram 24.000 contas falsas para iniciar mais de 16 milhões de interações com o Claude, extraindo sistematicamente suas principais capacidades em raciocínio de agentes, uso de ferramentas e programação.

A Anthropic caracterizou isso como ameaça à segurança nacional, afirmando que modelos destilados “provavelmente não mantêm barreiras de segurança” e podem ser usados por governos autoritários para ciberataques, desinformação e vigilância em massa.

A narrativa foi planejada e elaborada com precisão.

Veio logo após o governo Trump flexibilizar o controle de exportação de chips para a China—exatamente quando a Anthropic buscava novos argumentos para sua atuação política sobre exportação de chips.

Mas Musk rebateu: “A Anthropic praticou roubo em larga escala de dados de treinamento e pagou bilhões em acordos. Isso é fato.”

Tory Green, cofundador da IO.Net, comentou: “Vocês treinam seus modelos com toda a internet, e quando outros aprendem com sua API pública, chamam isso de ‘ataque de destilação’?”

A Anthropic chama destilação de “ataque”, mas essa é uma prática padrão na indústria de IA. A OpenAI utilizou para comprimir o GPT-4, o Google otimizou o Gemini assim, e a própria Anthropic já recorreu ao método. A diferença agora: a Anthropic é o alvo.

Como afirmou Erik Cambria, professor de IA da Universidade Tecnológica de Nanyang, à CNBC: “A linha entre uso legítimo e exploração maliciosa é frequentemente tênue.”

Ainda mais irônico, a Anthropic acabou de pagar US$ 1,5 bilhão para encerrar processos por treinar o Claude com livros pirateados. Treinaram com toda a internet e agora acusam outros de aprenderem com sua API pública. Não é apenas padrão duplo—é padrão triplo.

A Anthropic tentou se colocar como vítima, mas acabou como acusada.

Desmontando Compromissos de Segurança: RSP 3.0

No mesmo dia em que confrontou o Pentágono e polemizou com o Vale do Silício, a Anthropic lançou a terceira versão de sua Política de Escalonamento Responsável.

O cientista-chefe Jared Kaplan declarou à imprensa: “Não acreditamos que interromper o treinamento de modelos de IA ajude alguém. Com o avanço acelerado da IA, assumir compromissos unilaterais enquanto os concorrentes avançam a todo vapor não faz sentido.”

Ou seja, se os outros não seguem as regras, nós também não seguiremos.

O cerne da RSP 1.0 e 2.0 era um compromisso rígido: se as capacidades do modelo excedessem a cobertura das medidas de segurança, o treinamento seria pausado. Esse compromisso deu à Anthropic uma reputação única na comunidade de segurança em IA.

Mas a versão 3.0 eliminou essa promessa.

Ela foi substituída por uma estrutura mais “flexível”—separando as medidas de segurança que a Anthropic pode adotar das recomendações para o setor. A cada 3 a 6 meses, será publicado um relatório de riscos, com avaliação externa de especialistas.

Isso soa responsável?

Chris Painter, revisor independente da ONG METR, afirmou após analisar um rascunho: “Isso mostra que a Anthropic acredita precisar entrar em ‘modo de triagem’, pois avaliação e mitigação de riscos não acompanham o crescimento das capacidades. É mais uma evidência de que a sociedade não está pronta para riscos catastróficos da IA.”

A TIME noticiou que a Anthropic passou quase um ano debatendo internamente essa reescrita, com aprovação unânime do CEO Amodei e do conselho. Oficialmente, a política original buscava promover consenso no setor—mas o setor não acompanhou. O governo Trump adotou postura de não intervenção em IA, chegando a tentar revogar leis estaduais. Uma legislação federal sobre IA segue fora de alcance. Em 2023, parecia possível um marco global de governança, mas três anos depois, essa porta se fechou.

Um pesquisador veterano e anônimo em governança de IA foi direto: “A RSP é o ativo de marca mais valioso da Anthropic. Remover a pausa no treinamento é como uma empresa de alimentos orgânicos tirar discretamente o ‘orgânico’ do rótulo e dizer que agora seus testes são mais transparentes.”

Crise de Identidade com Valuation de US$ 380 Bilhões

No início de fevereiro, a Anthropic concluiu uma rodada de captação de US$ 30 bilhões, atingindo valuation de US$ 380 bilhões, com a Amazon como investidora principal. Desde a fundação, alcançou US$ 14 bilhões em receita anualizada, e nos últimos três anos esse valor cresceu mais de dez vezes ao ano.

Ao mesmo tempo, o Pentágono ameaça colocar a empresa na lista negra. Musk a acusa publicamente de roubo de dados. O compromisso central de segurança foi abandonado. O chefe de segurança de IA da Anthropic, Mrinank Sharma, renunciou e escreveu no X: “O mundo está em perigo.”

Contradição?

Talvez a contradição seja o DNA da Anthropic.

Fundada por ex-executivos da OpenAI preocupados com o ritmo de segurança da empresa, a Anthropic acabou desenvolvendo modelos ainda mais poderosos, mais rapidamente, enquanto alertava o mundo sobre os perigos desses modelos.

O modelo de negócios, em resumo: tememos a IA mais do que qualquer um, então você deve nos pagar para construí-la.

Essa narrativa funcionou perfeitamente em 2023–2024. Segurança em IA virou palavra de ordem em Washington, e a Anthropic era a lobista do momento.

Em 2026, os ventos mudaram.

“Woke AI” tornou-se insulto político, regulações estaduais de IA foram bloqueadas pela Casa Branca, e apesar da aprovação do SB 53 da Califórnia (com apoio da Anthropic), nada avançou em nível federal.

A narrativa de segurança da Anthropic está migrando de “diferencial” para “passivo político”.

A Anthropic realiza um difícil equilíbrio—precisa ser “segura” o suficiente para manter a marca, mas “flexível” para não ser rejeitada pelo mercado ou governo. O problema: a tolerância de ambos os lados está diminuindo.

Quanto Vale a Narrativa de Segurança Agora?

Considerando os três eventos, o cenário é claro.

Acusar empresas chinesas de destilar o Claude fortalece o lobby por controle de exportação de chips. Abandonar a pausa de segurança mantém a Anthropic na corrida armamentista. Recusar a exigência do Pentágono por armas autônomas preserva seu último resquício de credibilidade moral.

Cada movimento é lógico, mas todos se contradizem.

Não se pode alegar que empresas chinesas “destilando” seu modelo ameaçam a segurança nacional e, ao mesmo tempo, eliminar o próprio compromisso de evitar que o modelo saia do controle. Se o modelo é tão perigoso, deveria haver mais cautela, não mais agressividade.

A não ser que você seja a Anthropic.

No setor de IA, a identidade não se define por declarações—mas pelo balanço patrimonial. A narrativa de “segurança” da Anthropic é, essencialmente, um diferencial de marca.

No início da corrida armamentista da IA, esse diferencial era valioso. Investidores pagavam mais por “IA responsável”, governos aprovavam “IA confiável” e clientes buscavam “IA mais segura”.

Mas em 2026, esse diferencial está desaparecendo.

A Anthropic agora enfrenta não a dúvida sobre “devemos ceder?”, mas sim “a quem ceder primeiro?”. Se ceder ao Pentágono, a marca sofre. Se ceder aos concorrentes, o compromisso de segurança é anulado. Se ceder aos investidores, ambos os lados terão de fazer concessões.

Às 17h01 de sexta-feira, a Anthropic dará sua resposta.

Independentemente do resultado, uma coisa é certa: a Anthropic que prosperava com o discurso “somos diferentes da OpenAI” está se tornando igual a todas as outras.

O fim de uma crise de identidade costuma ser o desaparecimento da própria identidade.

Declaração:

  1. Este artigo é uma reprodução de [TechFlow]. Os direitos autorais pertencem à autora original [Ada]. Caso tenha alguma objeção quanto à reprodução, entre em contato com a equipe do Gate Learn, que tomará as providências cabíveis conforme os procedimentos aplicáveis.
  2. Isenção de responsabilidade: As opiniões expressas neste artigo são de exclusiva responsabilidade da autora e não constituem recomendação de investimento.
  3. Outras versões deste artigo em outros idiomas foram traduzidas pela equipe Gate Learn. Sem menção ao Gate, não é permitida a reprodução, distribuição ou plágio das traduções.

Compartilhar

Calendário Cripto
Desbloqueio de Tokens
Wormhole irá desbloquear 1.280.000.000 W tokens no dia 3 de abril, constituindo aproximadamente 28,39% da oferta atualmente em circulação.
W
-7.32%
2026-04-02
Desbloquear Tokens
A Pyth Network desbloqueará 2.130.000.000 tokens PYTH em 19 de maio, constituindo aproximadamente 36,96% da oferta atualmente em circulação.
PYTH
2.25%
2026-05-18
Tokens Desbloquear
Pump.fun desbloqueará 82.500.000.000 tokens PUMP em 12 de julho, constituindo aproximadamente 23,31% da oferta atualmente em circulação.
PUMP
-3.37%
2026-07-11
Desbloquear Tokens
Succinct irá desbloquear 208.330.000 tokens PROVE em 5 de agosto, constituindo aproximadamente 104,17% da oferta atualmente em circulação.
PROVE
2026-08-04
sign up guide logosign up guide logo
sign up guide content imgsign up guide content img
Sign Up

Artigos Relacionados

O que é a Carteira HOT no Telegram?
intermediário

O que é a Carteira HOT no Telegram?

A Carteira HOT no Telegram é uma carteira totalmente na cadeia e não custodial. É uma carteira do Telegram de próxima geração que permite aos usuários criar contas, negociar criptomoedas e ganhar tokens $HOT.
2024-11-29 06:45:47
O que é o PolygonScan e como você pode usá-lo? (Atualização 2025)
iniciantes

O que é o PolygonScan e como você pode usá-lo? (Atualização 2025)

PolygonScan é um explorador de blockchain que permite aos usuários acessar detalhes de transações publicamente compartilhados na rede Polygon. Na atualização de 2025, agora processa mais de 5 bilhões de transações com confirmações em milissegundos, apresenta ferramentas de desenvolvedor aprimoradas, integração com Layer 2, análises avançadas, recursos de segurança melhorados e uma experiência móvel redesenhada. A plataforma ajuda os usuários a rastrear transações e obter insights mais profundos sobre o fluxo de ativos no crescente ecossistema da Polygon, que agora abriga 3,2 milhões de endereços ativos diários e $8,7 bilhões em valor total bloqueado.
2023-11-11 18:20:25
O que é Bitcoin?
iniciantes

O que é Bitcoin?

O Bitcoin é um sistema de moeda digital descentralizado desenvolvido para transferências de valor peer to peer e para a preservação de valor no longo prazo. Criado por Satoshi Nakamoto, funciona sem a necessidade de uma autoridade central. Em seu lugar, a manutenção ocorre de forma coletiva, utilizando criptografia e uma rede distribuída.
2022-11-21 10:12:36
O que é Tronscan e como você pode usá-lo em 2025?
iniciantes

O que é Tronscan e como você pode usá-lo em 2025?

Tronscan é um explorador de blockchain que vai além do básico, oferecendo gerenciamento de carteira, rastreamento de tokens, insights de contratos inteligentes e participação em governança. Até 2025, evoluiu com recursos de segurança aprimorados, análises expandidas, integração entre cadeias e experiência móvel aprimorada. A plataforma agora inclui autenticação biométrica avançada, monitoramento de transações em tempo real e um painel abrangente de DeFi. Os desenvolvedores se beneficiam da análise de contratos inteligentes alimentados por IA e ambientes de teste aprimorados, enquanto os usuários desfrutam de uma visualização unificada de portfólio multi-cadeias e navegação baseada em gestos em dispositivos móveis.
2023-11-22 18:27:42
O que é EtherVista, o autoproclamado "Novo Padrão para DEX"?
intermediário

O que é EtherVista, o autoproclamado "Novo Padrão para DEX"?

Este artigo fornece uma análise aprofundada da emergente exchange descentralizada (DEX) EtherVista e seu token de plataforma, VISTA. Explora como a EtherVista visa desafiar o modelo existente de AMM (Automated Market Maker), especialmente o da Uniswap, por meio de seus mecanismos de negociação exclusivos e modelo de distribuição de taxas. O artigo também explora os contratos inteligentes da EtherVista, a tokenomia e como atrai usuários ao oferecer taxas de gás baixas e um inovador sistema de distribuição de receitas.
2024-09-10 15:49:43
O que é Neiro? Tudo o que você precisa saber sobre NEIROETH em 2025
intermediário

O que é Neiro? Tudo o que você precisa saber sobre NEIROETH em 2025

Neiro é um cachorro da raça Shiba Inu que inspirou o lançamento de tokens Neiro em diferentes blockchains. Em 2025, o Neiro Ethereum (NEIROETH) evoluiu para uma das principais moedas meme com um valor de mercado de $215 milhões, mais de 87.000 detentores e listagens em 12 grandes exchanges. O ecossistema agora inclui um DAO para governança comunitária, uma loja oficial de mercadorias e um aplicativo móvel. NEIROETH implementou soluções de camada 2 para melhorar a escalabilidade e consolidou sua posição entre as 10 principais moedas meme temáticas de cachorro por capitalização de mercado, apoiado por uma comunidade vibrante e influenciadores cripto líderes.
2024-09-05 15:37:06