A Anthropic afirma que 3 empresas chinesas copiaram-na, usando as suas ferramentas de IA para treinar os seus modelos: ‘Como é que as voltas se dão’

A Anthropic acusou três empresas chinesas de inteligência artificial de usar o seu chatbot Claude em larga escala para treinar secretamente modelos rivais, um desenvolvimento inesperado num debate global que já dura há anos sobre onde termina a fraude e começa a prática padrão da indústria.

Vídeo Recomendado


Numa publicação no blog, na segunda-feira, a Anthropic, sediada em São Francisco, alegou que os laboratórios chineses DeepSeek, Moonshot AI e MiniMax violaram a lei empresarial ao interagir com o Claude, a sua ferramenta de codificação de vibração que está a revolucionar o mercado. “Identificámos campanhas em escala industrial por parte de três laboratórios de IA — DeepSeek, Moonshot e MiniMax — para extrair ilegalmente as capacidades do Claude para melhorar os seus próprios modelos,” afirmou a empresa. “Estes laboratórios geraram mais de 16 milhões de trocas com o Claude através de aproximadamente 24.000 contas fraudulentas, em violação dos nossos termos de serviço e restrições de acesso regionais.”

De acordo com a Anthropic, as empresas chinesas recorreram a uma técnica conhecida como “destilação”, na qual um modelo é treinado com base nas saídas de outro, muitas vezes um sistema mais capaz. As campanhas alegadamente focaram em áreas que a Anthropic considera diferenciais-chave do Claude, incluindo raciocínio complexo, assistência na codificação e uso de ferramentas.

A Anthropic argumenta que, embora a destilação seja um método de treino “amplamente utilizado e legítimo,” o uso por parte das empresas chinesas desta técnica pode ter sido para “fins ilícitos.” Utilizar redes extensas de contas falsas para replicar um modelo proprietário de um concorrente viola os seus termos de serviço e prejudica os controles de exportação dos EUA, destinados a restringir o acesso da China às tecnologias de IA mais avançadas, afirmou a Anthropic, apelando a uma “ação rápida e coordenada entre os atores da indústria, formuladores de políticas e a comunidade global de IA.”

Se não for exatamente destilação, a Anthropic foi recentemente acusada de violações de direitos autorais por milhares de autores, alegadamente baixando livros em massa de bibliotecas shadow para treinar os seus modelos de IA, em vez de comprar cópias e digitalizá-los por conta própria. Num movimento histórico, a Anthropic resolveu esse processo em setembro de 2025, pagando 1,5 mil milhões de dólares, e compensou os autores com cerca de 3.000 dólares por livro, por aproximadamente 500.000 obras.

Como as empresas chinesas são acusadas de o fazer

A empresa afirma que os três laboratórios contornaram restrições de geofencing e limitações comerciais que restringem a disponibilidade comercial do Claude na China, roteando o tráfego através de serviços de proxy que revendem o acesso a modelos de IA ocidentais de grande escala. Um desses “clusters de hydra,” afirmou a Anthropic, operava dezenas de milhares de contas simultaneamente para distribuir pedidos por diferentes chaves de API e provedores de cloud.

Depois de estabelecerem essas contas, os laboratórios alegadamente criaram conversas longas e de alto token, desenhadas para extrair respostas detalhadas, passo a passo, que podiam ser alimentadas de volta nos seus próprios sistemas como dados de treino. Segundo a narrativa da Anthropic, o resultado foi uma pipeline não oficial que transformou o Claude num professor relutante para modelos em desenvolvimento na crescente e competitiva indústria de IA na China.

A Anthropic ainda não anunciou processos específicos contra as três empresas, mas indicou que cortou acessos conhecidos e está a apelar a Washington para reforçar os controles de exportação de chips avançados e serviços de IA, a fim de evitar esforços semelhantes no futuro.

‘Como as voltas mudaram’

Se a Anthropic esperava empatia, a reação online e entre observadores da indústria tem sido notavelmente cética. Comentadores rapidamente apontaram que a própria Anthropic enfrentou acusações de excesso na sua recolha de dados, além do caso de direitos autorais dos autores, como um processo separado por scraping de conteúdo do Reddit. “Como as voltas mudaram,” escreveu um comentador na thread r/singularity no Reddit, uma expressão muitas vezes atribuída a um meme derivado do programa de televisão The Office.

Por trás das críticas, há uma luta mais ampla sobre quem define as regras para uma indústria construída à base de remixar o trabalho humano. Empresas americanas como a Anthropic e a OpenAI têm vindo a pressionar cada vez mais por uma aplicação rigorosa contra concorrentes estrangeiros que acusam de copiar sistemas proprietários, mesmo enquanto defendem a sua própria recolha de dados extensa sob a bandeira do uso justo.

Laboratórios chineses, muitos dos quais lançam modelos de código aberto, estão a correr para reduzir a lacuna de desempenho com os rivais ocidentais, usando qualquer vantagem legal que possam encontrar. Com Washington já a debater restrições mais severas na exportação de chips de IA e serviços de cloud para a China, as alegações da Anthropic provavelmente vão alimentar pedidos por novas regras — ao mesmo tempo que oferecem aos críticos mais uma oportunidade de notar a desconfortável simetria no coração da IA moderna.

Para esta história, os jornalistas da Fortune usaram IA generativa como ferramenta de pesquisa. Um editor verificou a precisão das informações antes da publicação.

Junte-se a nós na Cimeira de Inovação no Local de Trabalho da Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo vão reunir-se para explorar como a IA, a humanidade e a estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)