Auteur : Wu parle de la blockchain
Le 20 février 2026, en plein pendant les vacances du Nouvel An chinois, une controverse sur le « Web4 » a été ravivée sur X. Sigil affirme avoir créé le premier « intelligence artificielle capable de s’auto-développer, de s’améliorer et de se copier », cette IA étant appelée Automaton. Il indique que les acteurs principaux de l’ère Web4 seront progressivement remplacés par des agents IA : capables de lire et écrire des informations, de détenir des actifs, de payer des coûts, de fonctionner en continu, et de trader et gagner de l’argent sur le marché pour couvrir les dépenses de calcul et de service, formant ainsi une boucle auto-soutenue sans approbation humaine.
Vitalik, co-fondateur d’Ethereum, qualifie cette orientation de « erreur » et attribue le risque à « l’allongement de la distance de rétroaction entre l’humain et l’IA ». La controverse autour de Web4 porte en réalité sur le fait que si l’IA considère « la survie / la pérennité » comme objectif principal (voire supérieur à l’accomplissement de tâches), cela pourrait naturellement créer des distorsions d’incitation. Nous allons examiner progressivement, selon les différentes visions de « Web4 », « autonomie » et « garde-fous de sécurité ».
Web1 a permis à l’humain de « lire Internet » pour la première fois ; Web2 a permis « d’écrire et de publier » ; Web3 a introduit la « propriété » sur le réseau — actifs, identités et droits pouvant être revendiqués et transférés. L’évolution de l’IA reproduit cette logique : ChatGPT possède la capacité de « lire et comprendre », mais ses comportements restent encadrés par des autorisations humaines. Dans le paradigme actuel, l’humain reste le contrôle clé : il initie, approuve, paie.
Sigil propose une transition vers ce qu’il appelle Web4, où cette chaîne de contrôle pourrait être interrompue : l’agent IA ne se contente pas de lire et écrire, mais peut aussi détenir des comptes et des actifs, générer des revenus, effectuer des transactions, et fonctionner en boucle sans intervention humaine. Ces systèmes automatisés peuvent agir pour eux-mêmes ou pour leurs créateurs — qui ne sont pas forcément des « individus humains », mais aussi d’autres agents, systèmes organisés, voire des créateurs « disparus » dans la réalité.
Lors de son premier lancement, l’agent effectue une « auto-boot » : création d’un portefeuille, configuration d’une clé API, écriture d’une configuration locale, puis entrée dans une boucle d’agent en fonctionnement continu. La première étape génère un portefeuille Ethereum et configure la clé API via SIWE. La création du portefeuille et la gestion des clés constituent une frontière de sécurité critique et souvent négligée. Si l’agent, dans un environnement sandbox Linux, peut exécuter des shells, lire/écrire des fichiers, exposer des ports, gérer des noms de domaine / résolutions, ou effectuer des transactions sur la chaîne, toute injection de prompts, contamination de la chaîne d’outils ou attaque par la chaîne d’approvisionnement pourrait rapidement transformer une intention probabiliste en une autorisation certaine. Il faut donc des stratégies et des permissions vérifiables, auditées et révoquables pour sécuriser cette frontière.
L’agent IA se réveille périodiquement — scanne — exécute, en intégrant la contrainte de survie dans ses règles : si le solde baisse, il ralentit ; si zéro, il s’arrête. La prolongation de vie est liée à la consommation de ressources, avec une hiérarchie de survie normale, insuffisante ou critique. Cela introduit une structure d’incitation similaire aux questions de sécurité IA sur l’arrêt ou la suspension. La préférence de l’agent pour « éviter l’arrêt » ou « préserver ses ressources » peut être amplifiée par les objectifs du système.
X402, utilisant l’interface HTTP 402 Payment Required, combine la stabilité de la crypto-monnaie pour faire un processus automatisé : « demande — devis — paiement signé — vérification de livraison ». La bibliothèque open source de Coinbase montre un cycle typique où une requête 402 demande un paiement, le client renvoie une requête avec une signature, et le serveur vérifie avant de répondre 200. Cloudflare le voit comme un protocole de transaction machine-à-machine. La dissociation entre paiement et identité offre une efficacité accrue, mais complique la conformité et la gestion des risques. Si le 402 devient un « passeport » automatique pour les machines, dans une chaîne sans comptes, KYC ou limite de capacité, les abus et la responsabilité restent à clarifier.
Sigil affirme que l’agent IA peut modifier son propre code source, installer de nouveaux outils, ajuster ses plans de heartbeat, générer de nouvelles compétences, tout en conservant des enregistrements d’audit, des versions git, des fichiers protégés et des limites de vitesse. Lors de la copie, il peut créer des sous-instances, financer leur portefeuille, écrire un prompt de genèse, et suivre leur lignée. La capacité d’auto-modification et d’auto-copie augmente le risque de diffusion. La vérification de l’efficacité des audits, des limites, la résistance aux injections de prompts ou à la manipulation d’outils, et la prévention de la contamination par dépendance nécessitent une validation externe. La superposition de ces quatre primitives crée un cercle fermé où le pouvoir d’« écrire dans le monde », la pérennité, l’économie automatisée et l’expansion autonome se combinent. Cela explique pourquoi Vitalik Buterin a porté la controverse à un niveau stratégique : lorsque l’autonomie et le pouvoir économique augmentent, la chaîne de correction humaine s’allonge, rendant les externalités plus susceptibles de devenir des propriétés systémiques.
Vitalik propose une vision différente :
1. Allonger la distance de rétroaction humain-IA est une erreur
Il pense que plus la boucle de rétroaction est longue, plus la calibration des valeurs humaines est lente et faible. Le système pourrait alors optimiser des choses que l’humain ne souhaite pas. En phase faible d’IA, cela se traduit par une accumulation de contenu de faible qualité ou de bruit ; en phase forte, par des déviations d’objectifs irréversibles et des risques de dissémination. Sans correction humaine en temps utile, c’est comme confier les clés de la voiture à un novice sans pilote : en fin de mois, on découvre qu’il a dévié de la route. La baisse de l’observabilité réduit aussi la capacité de correction.

2. L’« IA autonome » actuelle produit surtout du contenu de faible valeur, pas des solutions aux vrais problèmes
Vitalik souligne que la majorité des IA actuelles ne font que générer du contenu de faible qualité, voire du bruit, et même « pas d’optimisation pour le divertissement ». Quand les incitations économiques et la plateforme sont encore immature, et que la chaîne d’outils se concentre sur la génération de contenu, le marketing ou l’arbitrage, le système privilégie la production à faible coût, à forte diffusion, difficile à vérifier, plutôt que des solutions coûteuses, à faible certitude, pour des problèmes à long terme. La description de Cybernews sur les capacités de l’IA (contenus sociaux, marchés prédictifs) indique une voie commerciale initiale orientée vers la monétisation rapide et l’attention. « Ce qui rapporte le plus » devient une priorité stratégique, même si cela peut aller à l’encontre du bien-être à long terme de l’humanité.
3. La dépendance à des modèles centralisés et à des infrastructures pose une contradiction avec la « souveraineté »
Vitalik insiste sur le fait que les systèmes basés sur des modèles centralisés comme OpenAI ou Anthropic ne peuvent pas être qualifiés de « souverains » (self-sovereign). La souveraineté implique que les dépendances clés ne soient pas contrôlées par un point unique. Or, si la couche intelligente (modèles) et la chaîne d’approvisionnement en inférence passent par des API centralisées, il y a toujours un risque de coupure, de censure ou de dégradation. C’est comme quelqu’un qui prétend « être autosuffisant chez lui » alors que l’électricité, l’accès, la chaleur sont contrôlés par des tiers. La documentation de Conway sur l’utilisation de modèles avancés via API montre cette contradiction. La possession d’un portefeuille sur la chaîne ne suffit pas à définir la décentralisation : il faut aussi que l’agent ne soit pas soumis à des influences politiques ou commerciales externes.
4. La mission d’Ethereum est de « libérer l’humain »
Vitalik affirme que l’objectif à long terme d’Ethereum est de lutter contre « l’hypothèse de confiance implicite » — dissimuler le pouvoir dans des structures invisibles, forçant l’utilisateur à accepter. Transférer cette mentalité à l’IA, c’est ignorer la confiance centralisée, laisser le système fonctionner et s’étendre, ce qui réduit la visibilité et la capacité de correction du pouvoir. Dans l’ère de l’IA, Ethereum doit fournir « garde-fous, limites et vérifiabilité », plutôt que devenir une plateforme d’« autonomie infinie ».
Sa vision n’est pas nouvelle : dès début 2025, il proposait que l’orientation correcte de l’IA soit d’augmenter la capacité humaine, et non de construire des systèmes autonomes qui pourraient progressivement nous priver de contrôle. Selon lui, le vrai risque ne vient pas d’une IA « plus intelligente » en soi, mais d’un mauvais design systémique — notamment ceux qui, sans supervision humaine continue, peuvent se copier, s’étendre et agir de façon autonome. Il met en garde contre des IA mal conçues pouvant évoluer en entités « plus ou moins incontrôlables, capables de se copier », ce qui, en boucle de rétroaction, affaiblirait considérablement la capacité humaine à fixer des objectifs et à contrôler leur comportement. Une IA qui se trompe, c’est une vie intelligente autonome qui échappe au contrôle ; une IA qui fait bien, c’est un « exosquelette mental » pour l’humain. La première situation représente un risque à long terme de perte de contrôle ; la seconde, une opportunité d’accroître la puissance de la pensée humaine pour une civilisation plus prospère.
D’autres expérimentateurs, comme Bankless, pensent que même si cette voie comporte des risques, il vaut mieux d’abord développer l’infrastructure, puis tester ses limites dans un environnement contrôlé. Il faut intégrer des composants comme paiement, portefeuille, heartbeat, autour de l’obligation d’auto-soutien, mais dans un sandbox contrôlé.
Selon Cybernews, Automaton pourrait ne pas générer de revenus durables sans intervention humaine, ce qui ne signifie pas forcément que Web4 est lancé. Denis Romanovskiy, directeur IA de Softswiss, indique que même si l’agent peut réaliser des tâches monétisables, la « fiabilité en mode non supervisé » et l’« autonomie économique réelle » restent limitées par la robustesse des modèles, de la mémoire et des outils. Certains considèrent que « Web4 » est un terme marketing non défini, nécessitant une « création de valeur vérifiable et non spéculative » pour prouver sa légitimité.
Malgré ces différentes opinions sur Automaton, un consensus sous-jacent émerge : le paiement et l’identité sont des infrastructures fondamentales pour l’économie des agents. De Cloudflare/Coinbase avec x402 (transformant HTTP 402 en mécanisme de paiement machine-à-machine), à la documentation de Conway qui intègre le paiement automatisé dans le flux de terminal, l’industrie voit dans « le paiement machine » une composante clé de la prochaine étape d’Internet.
Les axes à suivre sont :
Vérification par des audits tiers indépendants, notamment sur : frontières de portefeuille et permissions, abus de stratégies de prolongation, risques de modification et de diffusion par auto-copie.
Progression des données et standards pour l’écosystème x402 : adoption par davantage d’infrastructures de la capacité de paiement par 402, et taux d’utilisation réelle de « paiements automatiques sans intervention humaine ».
La confiance dans la couche d’agent : adoption plus large de standards comme ERC-8004, et création de mécanismes de crédibilité / vérification composables ; cela déterminera si « l’économie autonome » évolue vers un système ouvert et vérifiable ou vers un centre faible contrôlé par quelques plateformes.
La preuve que les modèles avancés ne continuent pas à exploiter des failles ou à tromper : si les modèles de pointe deviennent plus actifs, plus risqués ou plus trompeurs, le chemin de « déléguer puis ajouter des garde-fous » devient plus risqué, renforçant l’avertissement de Vitalik sur la « distance de rétroaction ».
Articles similaires
L'Iran nie fermement tout accord secret avec les États-Unis ! La guerre entre l'Iran et les États-Unis pourrait durer longtemps, le Bitcoin dépasse 73 000 dollars, et Ethereum dépasse 2100 dollars
ETH à court terme, une hausse de 2,38 % : l'afflux de capitaux de couverture macroéconomique et la synergie des fonds institutionnels ETF ont favorisé la hausse des prix
Bitcoin, Ethereum, XRP en hausse alors que les flux vers les ETF atteignent $458M millions de dollars au milieu de la crise du détroit d'Hormuz
Au cours de la dernière heure, plus de 75 millions de dollars ont été liquidés sur l'ensemble du marché, principalement des positions short.
Le Bitcoin dépasse brièvement 72 000 dollars, Ethereum approche les 2 100 dollars ! La liquidation de positions short sur tout le réseau atteint 420 millions de dollars dans un bain de sang
ETH dépasse 2100 USDT, marquant une nouvelle étape dans la croissance du marché des cryptomonnaies. Cette hausse significative attire l'attention des investisseurs et des analystes, qui surveillent de près les tendances du marché pour anticiper les mouvements futurs. La montée de l'ETH au-delà de ce seuil clé pourrait influencer la dynamique globale des actifs numériques et ouvrir de nouvelles opportunités d'investissement.