Anthropic la semaine dernière a lancé le système de détection de vulnérabilités alimenté par l’IA, « Claude Code Security », affirmant avoir découvert plus de 500 vulnérabilités zero-day de haute gravité, non détectées après des décennies d’examen par des experts, ce qui a fait chuter les actions de cybersécurité. CrowdStrike a plongé de 18 % en une journée, avec une perte de 20 milliards de dollars de capitalisation, tandis que Palo Alto Networks et Fortinet ont chuté d’environ 9 %, la panique se répandant sur le marché.
(Précédent : Claude Opus 4.6 arrive : il écrit son propre compilateur, crée des PPT, déniche 500 vulnérabilités zero-day, tout cela pour tester votre travail)
(Contexte supplémentaire : le Pentagone s’oppose à Anthropic ! Ouverture totale de Claude pour un usage militaire « sinon, résiliation et départ »)
Sommaire de l’article
Toggle
Le 20 février, Anthropic a lancé en version preview limitée « Claude Code Security », un système de détection de vulnérabilités basé sur l’IA, capable de scanner automatiquement tout le code, de vérifier les découvertes pour réduire les faux positifs, et de proposer des correctifs aux développeurs.
Claude Code Security diffère des outils d’analyse statique traditionnels : il peut « comprendre le contexte du code comme un expert en sécurité », suivre les flux de données, et repérer des vulnérabilités souvent ignorées par les outils de correspondance de modèles classiques.
Selon VentureBeat, Anthropic a dirigé son modèle avancé Claude Opus 4.6 vers plusieurs dépôts de code open source en environnement de production, découvrant plus de 500 vulnérabilités de haute gravité — des failles non détectées malgré des décennies d’examen par des experts et des millions d’heures de fuzzing.
Il est notable qu’OpenAI a également publié le 19 février un benchmark pour évaluer la performance de ses modèles IA dans la détection, la correction et l’exploitation de vulnérabilités de sécurité dans les contrats intelligents, où Claude Opus 4.6 a obtenu le meilleur classement.
Le lancement de Claude Code Security a provoqué un effondrement général des actions de cybersécurité :
L’analyste en sécurité et infrastructure de Robert W. Baird, Shrenik Kothari, qualifie cette vente de « panique motivée par la narration ».
Le compte d’analyse de marché renommé The Kobeissi Letter indique que ces réactions reflètent une inquiétude légitime face à « l’IA qui remplace la capacité humaine en sécurité informatique ». Quand l’IA peut reproduire le travail d’un expert en sécurité, le pouvoir de fixation des prix passera des vendeurs (fournisseurs de cybersécurité) aux acheteurs (entreprises), ce qui constitue une menace sérieuse pour la barrière concurrentielle des sociétés traditionnelles.
L’analyste de Wedbush attribue cette chute à la « peur des trades fantômes IA » (AI Ghost Trade fears), estimant que l’entrée d’Anthropic renforce la perception que « l’industrie de la cybersécurité sera profondément remodelée par l’IA ».
Claude Code Security fonctionne encore en mode « collaboration homme-machine » — l’IA identifie les problèmes et propose des solutions, mais la décision finale revient toujours au développeur. Cependant, la simple accélération du processus de détection de vulnérabilités par l’IA suffit à remettre en question la logique d’évaluation de toute l’industrie de la cybersécurité.
Quand un modèle IA peut réaliser en quelques heures ce qu’un chercheur en sécurité humain mettrait des dizaines d’années à accomplir, le marché se demande : les abonnements annuels de plusieurs milliards de dollars des fournisseurs traditionnels en sécurité valent-ils encore ce prix ?