Le 27 février, l’agence de sécurité blockchain TRM Labs a publié un rapport indiquant que l’activité d’arnaque en cryptomonnaies par IA a augmenté d’environ 500 % au cours de l’année écoulée. La prolifération de l’intelligence artificielle générative et des grands modèles de langage (LLM) a rendu les processus de phishing, d’usurpation d’identité et de blanchiment d’argent hautement automatisés, augmentant considérablement l’ampleur et la rapidité des attaques.
Le rapport a souligné que les hackers utilisent l’IA pour générer des e-mails de phishing, de faux sites d’investissement et des chatbots de haut niveau par lots, augmenter les taux d’interaction grâce à la parole personnalisée et assurer la diffusion interlinguistique grâce à des outils de traduction. La technologie audio et vidéo deepfake est utilisée pour se faire passer pour des cadres d’entreprise ou des personnalités publiques afin d’accélérer le processus de construction de confiance des « assiettes de mort de cochons » et de la fraude émotionnelle. Les modèles d’apprentissage automatique peuvent également tester automatiquement les comptes volés, analyser les phrases de départ et les clés privées, et même identifier les vulnérabilités des contrats intelligents pour voler des fonds en peu de temps.
Les cas récents mettent en lumière une escalade des risques. Une baleine crypto a perdu 1 459 Bitcoin et 2,05 millions de Litecoins à cause d’une attaque d’ingénierie sociale, totalisant 282 millions de dollars. Les forces de l’ordre américaines ont également saisi plus de 61 millions de dollars en Tether en Caroline du Nord, financés par le blanchiment d’argent transfrontalier.
Selon les données, l’ampleur des transactions crypto illégales atteindra 158 milliards de dollars en 2025, soit une augmentation annuelle d’environ 145 %, dont environ 30 milliards de dollars sont liés à la fraude. Chainalysis a noté que les arnaques générées par l’IA gagnent 4,5 fois plus d’une seule action que les arnaques traditionnelles, avec en moyenne 9 fois plus de transactions quotidiennes. Vectra AI a révélé que les cas de fraude liée à l’IA ont augmenté de 1 210 %.
Les agences de sécurité soulignent qu’face à l’escalade de la fraude aux cryptomonnaies par IA, la défense doit également déployer des outils automatisés de surveillance et d’analyse en chaîne. Alors que le cycle de vie de l’attaque est pleinement accéléré, le système de sécurité des actifs numériques fait face à une nouvelle confrontation technologique.
Articles similaires
Les hackers de Sillytuna dépassent $10M dans les fonds cryptographiques volés
Shiba Inu : Alerte émise après le piratage du compte de média social d'un participant SHIB - U.Today
IoTeX publie le rapport sur l'incident de sécurité d'ioTube : perte réelle d'environ 4,4 millions de dollars, s'engageant à indemniser intégralement les utilisateurs affectés
Le groupe Taizi blanchit 10,7 milliards à Taïwan ! Développement autonome du « portefeuille OJBK » connecté aux échanges clandestins
HypurrFi révèle qu'une vulnérabilité de erreur d'arrondi existait dans la version précoce d'Aave V3, le marché XAUT0 et UBTC a été suspendu pour de nouveaux emprunts.
L'agent AI contourne la protection Cloudflare, la sécurité du front-end DeFi crypté est à nouveau mise à l'épreuve