# Anthropic acusou laboratórios de IA chineses de “roubo” de dados
A empresa Anthropic acusou três startups chinesas de IA — DeepSeek, Moonshot e MiniMax — de uma campanha massiva de uso do Claude para melhorar os seus próprios modelos.
Laboratórios na China geraram mais de 16 milhões de interações com o chatbot através de cerca de 24.000 contas fraudulentas, violando os termos de uso e restrições regionais.
«Conectámos com alta confiança cada campanha a uma empresa específica com base na correlação de endereços IP, metadados de pedidos, características de infraestrutura e confirmações de parceiros do setor. Focaram nas capacidades mais únicas do Claude: raciocínio baseado em agentes, uso de ferramentas e programação», afirmou a Anthropic.
As empresas aplicaram destilação — treinar uma rede neural menos potente com as conclusões de uma mais forte.
Este método é amplamente utilizado e legítimo. Laboratórios de IA líderes regularmente destilam os seus próprios modelos para criar versões compactas e baratas para os clientes.
«No entanto, pode ser usado ilegalmente: concorrentes melhoram as capacidades usando LLMs de terceiros em pouco tempo e a baixo custo, comparado ao desenvolvimento próprio», diz o blog da Anthropic.
A empresa destacou que a janela de reação a esse tipo de “roubo” é estreita, e a ameaça vai além de uma única empresa ou região. Para eliminá-la, serão necessárias ações rápidas e coordenadas por parte da indústria, reguladores e comunidade global de IA.
Por que isso é perigoso
A Anthropic explicou os riscos dessa abordagem. Modelos destilados ilegalmente não mantêm os mecanismos de proteção necessários — o que cria problemas para a segurança nacional.
Empresas americanas estão implementando sistemas para impedir o uso de IA no desenvolvimento de armas biológicas, ciberataques maliciosos e outras ações perigosas. Modelos criados por destilação ilegal não possuem essas restrições.
Laboratórios estrangeiros podem integrar capacidades não protegidas em sistemas militares e de inteligência, permitindo que governos autoritários usem IA avançada para ciberataques, desinformação e vigilância em massa, acrescentaram na empresa.
Formas de combate
Especialistas da Anthropic apoiaram restrições de exportação para manter a liderança dos EUA na IA. Segundo eles, ataques de destilação minam essas medidas, permitindo que laboratórios estrangeiros reduzam a disparidade tecnológica.
«Sem transparência nesses ataques, o rápido progresso dos laboratórios chineses é erroneamente interpretado como uma falha das restrições de exportação. Na prática, seus avanços dependem muito da extração de capacidades dos modelos americanos, e ampliar essa abordagem requer acesso aos chips mais avançados», afirmou o blog da empresa.
A Anthropic listou seus próprios métodos de combate:
aprimorar o sistema de detecção de padrões de destilação;
trocar indicadores técnicos com outros laboratórios e provedores de nuvem;
reforçar a verificação de contas educacionais e de pesquisa;
aplicar contramedidas que reduzam a eficácia da destilação ilegal.
Não é a primeira acusação desse tipo. Em janeiro de 2025, logo após o lançamento explosivo do DeepSeek-R1, a empresa foi suspeita de roubo de dados da OpenAI.
Continuação da luta contra o Pentágono
O CEO da Anthropic, Dario Amodei, se reunirá com o secretário de Defesa, P. Hegset, no Pentágono para discutir o uso de modelos de IA pela força militar.
Recentemente, surgiram divergências — a Anthropic é contra o uso de IA para vigilância em massa de cidadãos dos EUA e para criar armas autônomas. O Ministério da Defesa deixou claro que pretende usar LLMs “para todos os cenários legais” sem restrições.
Chegou-se a falar na possibilidade de rescindir o contrato com a Anthropic.
Scanner de vulnerabilidades de IA
As ações das principais empresas públicas de cibersegurança caíram após o lançamento do Claude Code Security, uma ferramenta de IA para escanear vulnerabilidades no código.
No site da empresa, afirma-se que o novo serviço “analisa toda a base de código em busca de vulnerabilidades, verifica cada descoberta para minimizar falsos positivos e sugere correções”.
O Claude realiza análises “como um pesquisador de segurança experiente”: entende o contexto, monitora fluxos de dados e detecta vulnerabilidades.
Segundo a VentureBeat, o Claude Opus 4.6 identificou mais de 500 vulnerabilidades críticas que persistiram por décadas, apesar das verificações de especialistas.
As cinco maiores empresas americanas de segurança de TI por capitalização de mercado tiveram uma queda de dois dígitos nas ações nos últimos cinco dias, após a chegada do concorrente de IA:
Palo Alto Networks — -14%;
CrowdStrike — -18%;
Fortinet — -12%;
Cloudflare — -18%;
Zscaler — -19%.
Gráfico de preços das ações da Palo Alto Networks. Fonte: Yahoo Finance. Os analistas da Wedbush afirmaram que a venda de ações está relacionada a preocupações com o chamado AI Ghost Trade. Segundo eles, a reação do mercado está incorreta, e a Palo Alto, CrowdStrike e Zscaler provarão sua eficácia em 2026.
Lembrando que, em fevereiro, a OpenAI, em parceria com a Paradigm, apresentou o EVMbench — um benchmark para avaliar a capacidade de agentes de IA de identificar, corrigir e explorar vulnerabilidades em contratos inteligentes.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Anthropic acusou os laboratórios de IA chineses de «roubo» de dados - ForkLog: criptomoedas, IA, singularidade, futuro
A empresa Anthropic acusou três startups chinesas de IA — DeepSeek, Moonshot e MiniMax — de uma campanha massiva de uso do Claude para melhorar os seus próprios modelos.
Laboratórios na China geraram mais de 16 milhões de interações com o chatbot através de cerca de 24.000 contas fraudulentas, violando os termos de uso e restrições regionais.
As empresas aplicaram destilação — treinar uma rede neural menos potente com as conclusões de uma mais forte.
Este método é amplamente utilizado e legítimo. Laboratórios de IA líderes regularmente destilam os seus próprios modelos para criar versões compactas e baratas para os clientes.
A empresa destacou que a janela de reação a esse tipo de “roubo” é estreita, e a ameaça vai além de uma única empresa ou região. Para eliminá-la, serão necessárias ações rápidas e coordenadas por parte da indústria, reguladores e comunidade global de IA.
Por que isso é perigoso
A Anthropic explicou os riscos dessa abordagem. Modelos destilados ilegalmente não mantêm os mecanismos de proteção necessários — o que cria problemas para a segurança nacional.
Empresas americanas estão implementando sistemas para impedir o uso de IA no desenvolvimento de armas biológicas, ciberataques maliciosos e outras ações perigosas. Modelos criados por destilação ilegal não possuem essas restrições.
Laboratórios estrangeiros podem integrar capacidades não protegidas em sistemas militares e de inteligência, permitindo que governos autoritários usem IA avançada para ciberataques, desinformação e vigilância em massa, acrescentaram na empresa.
Formas de combate
Especialistas da Anthropic apoiaram restrições de exportação para manter a liderança dos EUA na IA. Segundo eles, ataques de destilação minam essas medidas, permitindo que laboratórios estrangeiros reduzam a disparidade tecnológica.
A Anthropic listou seus próprios métodos de combate:
Não é a primeira acusação desse tipo. Em janeiro de 2025, logo após o lançamento explosivo do DeepSeek-R1, a empresa foi suspeita de roubo de dados da OpenAI.
Continuação da luta contra o Pentágono
O CEO da Anthropic, Dario Amodei, se reunirá com o secretário de Defesa, P. Hegset, no Pentágono para discutir o uso de modelos de IA pela força militar.
Recentemente, surgiram divergências — a Anthropic é contra o uso de IA para vigilância em massa de cidadãos dos EUA e para criar armas autônomas. O Ministério da Defesa deixou claro que pretende usar LLMs “para todos os cenários legais” sem restrições.
Chegou-se a falar na possibilidade de rescindir o contrato com a Anthropic.
Scanner de vulnerabilidades de IA
As ações das principais empresas públicas de cibersegurança caíram após o lançamento do Claude Code Security, uma ferramenta de IA para escanear vulnerabilidades no código.
No site da empresa, afirma-se que o novo serviço “analisa toda a base de código em busca de vulnerabilidades, verifica cada descoberta para minimizar falsos positivos e sugere correções”.
O Claude realiza análises “como um pesquisador de segurança experiente”: entende o contexto, monitora fluxos de dados e detecta vulnerabilidades.
Segundo a VentureBeat, o Claude Opus 4.6 identificou mais de 500 vulnerabilidades críticas que persistiram por décadas, apesar das verificações de especialistas.
As cinco maiores empresas americanas de segurança de TI por capitalização de mercado tiveram uma queda de dois dígitos nas ações nos últimos cinco dias, após a chegada do concorrente de IA:
Lembrando que, em fevereiro, a OpenAI, em parceria com a Paradigm, apresentou o EVMbench — um benchmark para avaliar a capacidade de agentes de IA de identificar, corrigir e explorar vulnerabilidades em contratos inteligentes.