Anthropic a accusé les laboratoires d'IA chinois de « vol » de données - ForkLog : cryptomonnaies, IA, singularité, avenir

риски ИИ. ИИ предоставляет риски для компаний, бизнеса AI risks# Anthropic a accusé des laboratoires d’IA chinois de « vol » de données

La société Anthropic a accusé trois startups chinoises d’IA — DeepSeek, Moonshot et MiniMax — d’une vaste campagne d’utilisation de Claude pour améliorer leurs propres modèles.

Les laboratoires en Chine ont généré plus de 16 millions d’interactions avec le chatbot via environ 24 000 comptes frauduleux, violant les conditions d’utilisation et les restrictions régionales.

« Nous avons fortement lié chaque campagne à une entreprise spécifique en utilisant la corrélation des adresses IP, des métadonnées des requêtes, des caractéristiques d’infrastructure et des confirmations de partenaires du secteur. Elles ciblaient les fonctionnalités les plus uniques de Claude : raisonnement agent, utilisation d’outils et programmation », ont déclaré chez Anthropic.

Les entreprises ont utilisé la distillation — entraînement d’un réseau de neurones moins puissant à partir des conclusions d’un modèle plus fort.

C’est une méthode largement utilisée et légitime. Les principaux laboratoires d’IA distillent régulièrement leurs propres modèles pour créer des versions compactes et économiques pour leurs clients.

« Cependant, elle peut aussi être utilisée illégalement : des concurrents améliorent leurs capacités en utilisant des LLM étrangers en peu de temps et à moindre coût par rapport à un développement autonome », indique le blog d’Anthropic.

L’entreprise a souligné que la fenêtre pour réagir à ce type de « vol » est limitée, et que la menace dépasse une seule entreprise ou région. Pour y faire face, des actions rapides et coordonnées de l’industrie, des régulateurs et de la communauté mondiale de l’IA seront nécessaires.

Pourquoi cela est dangereux

Chez Anthropic, ils expliquent les risques liés à cette approche. Les modèles distillés illégalement ne conservent pas les mécanismes de protection nécessaires — cela pose des problèmes pour la sécurité nationale.

Les entreprises américaines mettent en place des systèmes pour empêcher l’utilisation de l’intelligence artificielle dans le développement d’armes biologiques, d’attaques cybernétiques malveillantes et d’autres actions dangereuses. Les modèles créés via une distillation illégale ne sont pas soumis à ces restrictions.

Les laboratoires étrangers peuvent intégrer des fonctionnalités non protégées dans des systèmes militaires et de renseignement, permettant aux gouvernements autoritaires d’utiliser l’IA de pointe pour des cyberattaques, de la désinformation et de la surveillance de masse, ont ajouté les entreprises.

Moyens de lutte

Les experts d’Anthropic soutiennent l’imposition de restrictions à l’exportation pour maintenir la domination des États-Unis dans l’IA. Selon eux, les attaques par distillation sapent ces mesures, permettant aux laboratoires étrangers de réduire l’écart technologique.

« Sans transparence, ces attaques rapides des laboratoires chinois sont à tort interprétées comme une preuve de l’inefficacité des restrictions à l’exportation. En réalité, leurs succès dépendent largement de l’exploitation des capacités des modèles américains, et leur extension nécessite un accès à des puces de pointe », indique le blog de l’entreprise.

Anthropic a présenté ses propres méthodes de lutte :

  • amélioration du système de détection des motifs de distillation ;
  • échange d’indicateurs techniques avec d’autres laboratoires et fournisseurs cloud ;
  • renforcement de la vérification des comptes éducatifs et de recherche ;
  • application de contre-mesures réduisant l’efficacité de la distillation illégale.

Ce n’est pas la première accusation de ce genre. En janvier 2025, peu après la sortie explosive de DeepSeek-R1, l’entreprise a été soupçonnée de vol de données chez OpenAI.

Poursuite de la lutte contre le Pentagone

Le PDG d’Anthropic, Dario Amodei, rencontrera le secrétaire à la Défense, P. Hegset, au Pentagone pour discuter des moyens d’utiliser les modèles d’IA de l’entreprise par l’armée.

Récemment, des désaccords sont apparus — Anthropic s’oppose à l’utilisation de l’IA pour la surveillance de masse des citoyens américains et la création d’armes autonomes. Le ministère de la Défense a clairement indiqué qu’il prévoit d’utiliser les LLM « pour tous les scénarios légaux » sans restrictions.

Il en est même venu à déclarer qu’il pourrait résilier le contrat avec Anthropic.

Scanner de vulnérabilités IA

Les actions des principales entreprises publiques dans le domaine de la cybersécurité ont chuté après le lancement par Anthropic de Claude Code Security — un scanner de vulnérabilités dans le code basé sur l’IA.

Sur le site de l’entreprise, il est indiqué que ce nouveau service « analyse toute la base de code pour détecter les vulnérabilités, vérifie chaque détection pour minimiser les faux positifs et propose des correctifs ».

Claude effectue une analyse « comme un chercheur en sécurité expérimenté » : comprend le contexte, suit les flux de données, détecte les vulnérabilités.

Selon VentureBeat, Claude Opus 4.6 a identifié plus de 500 vulnérabilités critiques, présentes depuis des décennies malgré les vérifications d’experts.

Cinq des plus grandes entreprises américaines cotées en bourse dans le domaine de la sécurité informatique ont enregistré une baisse à deux chiffres de leurs cours ces cinq derniers jours, suite à l’arrivée d’un concurrent IA :

  • Palo Alto Networks — -14 % ;
  • CrowdStrike — -18 % ;
  • Fortinet — -12 % ;
  • Cloudflare — -18 % ;
  • Zscaler — -19 %.

Graphique des prix des actions de Palo Alto Networks. Source : Yahoo Finance. Les analystes de Wedbush ont déclaré que la vente de ces actions est liée à des inquiétudes autour du soi-disant AI Ghost Trade. Selon eux, la réaction du marché est erronée, et Palo Alto, CrowdStrike et Zscaler prouveront leur efficacité en 2026.

Rappelons qu’en février, OpenAI, en collaboration avec Paradigm, a présenté EVMbench — un benchmark pour évaluer la capacité des agents IA à détecter, corriger et exploiter les failles dans les contrats intelligents.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)