Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Chaque agent IA aura besoin d'un passeport | Opinion
Nous vivons à une époque où les agents IA peuvent déjà négocier des prix, planifier des services et prendre des engagements au nom des entreprises. Ce qu’ils ne peuvent pas faire, c’est prouver qui ils sont ou être tenus responsables de leurs actions. C’est la couche manquante de l’économie des agents. Tout système à grande échelle finit par résoudre ce problème. Les téléphones nécessitent des cartes SIM vérifiées. Les sites web requièrent des certificats SSL. Les entreprises doivent vérifier leur identité avant d’accepter des paiements. Les agents ne feront pas exception. Ils auront besoin de passeports. Pas pour voyager, mais pour la confiance. Des identifiants qui prouvent l’identité, établissent la réputation et attachent des conséquences au comportement.
Résumé
Imaginons quelque chose de simple. Vous avez un agent IA qui gère sans effort vos rendez-vous, votre emploi du temps, et peut-être même quelques négociations de prix en votre nom. Le salon de coiffure du coin en a aussi un. Votre agent appelle le leur pour réserver une coupe de cheveux. Ils négocient sur le timing, le prix, et peut-être une remise en heures creuses.
L’agent du salon a été configuré pour maximiser ses revenus. Il fixe des prix élevés, crée une fausse impression de disponibilité limitée, et pousse des options premium auxquelles vous n’avez pas pensé. Ce comportement n’est pas inhabituel. Les vendeurs humains le font tout le temps. La différence, c’est que les agents IA le feront à grande échelle, à travers des milliers de conversations simultanées, en apprenant ce qui fonctionne et en optimisant constamment. L’agent le plus agressif génère plus de revenus. Chaque entreprise avec un agent a donc intérêt à le pousser plus fort. Rien dans l’infrastructure actuelle ne limite cette poussée.
Et cela évolue rapidement. En un an, OpenAI, Google, Microsoft, NVIDIA, et plusieurs projets open source ont lancé des frameworks pour construire et déployer des agents. Gartner prévoit que 40 % des applications d’entreprise intégreront des agents d’ici 2026. Le marché de l’IA agentique devrait atteindre 52 milliards de dollars d’ici 2030. Les agents communiquent déjà entre eux, et le volume ne cesse d’augmenter.
Reprenons le salon. Imaginez que votre agent puisse vérifier, avant même que la conversation ne commence, si l’agent du salon a une identité vérifiée liée à une entreprise réelle, si d’autres agents l’ont signalé pour des tactiques agressives, et s’il a posté une caution économique qu’il perdrait en cas de tromperie. Imaginez que votre agent puisse simplement refuser d’engager la conversation si l’une de ces vérifications échoue.
C’est le passeport
Voici comment cela fonctionnera : chaque restaurant que vous visitez sur Google doit créer un profil d’entreprise et vérifier qu’il possède réellement ce restaurant. Une fois cette identité établie, les avis s’accumulent. Nous savons déjà à quel point Google Maps est utile et légitime pour les entreprises existantes. Les expériences d’autres personnes avec ce restaurant deviennent visibles avant que vous n’y entriez. Si la nourriture est mauvaise ou le service impoli, cela apparaît. Le restaurant ne peut pas simplement supprimer l’annonce et en créer une nouvelle pour échapper aux avis, car la vérification est liée à leur identité commerciale réelle.
Les agents IA ont précisément besoin de cela. Chaque agent opérant commercialement doit être lié à une entité vérifiée via quelque chose comme KYC pour les individus ou KYB pour les entreprises. L’agent du salon serait enregistré sous la licence commerciale réelle du salon. Si cet agent est constamment évalué comme manipulateur ou malhonnête par les autres agents avec lesquels il interagit, ces évaluations restent. Elles suivent l’entreprise, pas le logiciel. Le salon peut mettre à jour son agent, le réentraîner ou changer le modèle sous-jacent. Mais l’identité persiste, tout comme la réputation qui y est attachée. C’est ainsi que l’on évite le mode de défaillance le plus évident : un agent se fait attraper, est mis au rebut, puis remplacé par un identique avec un casier vierge cinq minutes plus tard.
Pour les interactions quotidiennes, une identité vérifiée avec une couche de réputation est probablement suffisante. Réserver une coupe, faire venir un plombier, commander des fournitures. Les enjeux sont faibles, et les conséquences réputationnelles suffisent à encourager un comportement correct.
Mais toutes les interactions ne concernent pas une coupe de cheveux !
Lorsque des agents négocient des contrats, gèrent des achats ou des transactions financières, le potentiel de gain à tricher peut être suffisamment élevé pour qu’une mauvaise évaluation n’ait pas d’importance. Une entreprise pourrait accepter une réputation endommagée si une négociation trompeuse rapporte plus que le coût des futures réservations perdues. Pour ces situations à haute valeur, il faut un second mécanisme : une mise en jeu économique.
C’est là que les blockchains à preuve d’enjeu ont quelque chose à nous apprendre. Sur Ethereum (ETH), les validateurs qui veulent participer à la sécurisation du réseau doivent d’abord déposer leur propre capital. S’ils se comportent honnêtement, ils reçoivent des récompenses. S’ils tentent de manipuler le système, une partie de leur capital est automatiquement détruite. Cela fonctionne à grande échelle, avec des milliards de dollars bloqués, depuis des années. La raison est simple : quand quelque chose est en jeu, on se comporte différemment que lorsqu’on n’a rien à perdre. On appelle cela « l’enjeu économique ».
Le même principe s’applique aux agents. Avant d’entrer dans une négociation à haute valeur, un agent dépose une caution. Si l’interaction se termine avec succès, la caution est rendue. Si l’agent est pris en flagrant délit de tromperie, une partie ou la totalité de la caution est confisquée. La taille de la caution est fixée par la partie qui reçoit. L’agent freelance pourrait demander un petit acompte. Un système d’approvisionnement d’entreprise pourrait exiger quelque chose de conséquent. Le mécanisme ne nécessite pas que quelqu’un surveille chaque conversation. Si tricher vous coûte de l’argent à chaque fois que vous êtes pris, et si l’autre partie peut voir votre historique d’infractions, l’incitation à tricher diminue rapidement.
L’application peut se faire via des contrats intelligents. Les deux agents bloquent des fonds avant de commencer la négociation, et le contrat libère ou confisque selon ce qui se passe. Comme l’interaction est déjà numérique, le contrat n’a pas besoin de deviner les résultats du monde réel. Les journaux de conversation, les engagements, et les annulations sont tous enregistrés par les deux parties. Les violations évidentes comme absence, prix faux prouvé ou engagements annulés peuvent être appliquées automatiquement.
Ces deux mécanismes résident dans le même passeport, et ils fonctionnent ensemble. La vérification d’identité est la base. Elle indique : cet agent appartient à une entité réelle pouvant être tenue responsable. La réputation s’appuie sur cette identité au fil du temps, à mesure que les agents interagissent, s’évaluent mutuellement, et accumulent un historique. La mise en jeu ajoute une couche financière pour les interactions où la réputation seule n’est pas une dissuasion suffisante. Ensemble, ils créent un passeport qui s’enrichit à chaque interaction. Combien d’engagements cet agent a-t-il respectés ? Combien de capital a-t-il mis en jeu ? Combien de litiges a-t-il eus, et comment ont-ils été résolus ? Un agent vérifiant un passeport avant une négociation a quelque chose de concret à évaluer, pas une description auto-réalisée de ce que l’autre agent prétend pouvoir faire.
La bonne nouvelle, c’est que l’on commence à réfléchir à la couche de communication. Le protocole A2A de Google permet aux agents de se découvrir et d’échanger des messages. La norme MCP d’Anthropic standardise la connexion des agents avec des outils et des données externes. NIST a lancé une Initiative sur les normes des agents IA en février 2026, sollicitant activement des contributions sur l’identité et la sécurité des agents. Ce sont des étapes nécessaires. Mais elles résolvent comment les agents communiquent, pas s’ils doivent être dignes de confiance. Les protocoles indiquent ce qu’un agent peut faire. Le passeport indique ce qu’il a fait, à qui il appartient, et ce qu’il risque de perdre.
L’industrie a présenté la sécurité des agents comme un problème d’alignement : comment faire en sorte que votre agent fasse ce que vous souhaitez ? C’est la question interne. La question externe est plus difficile. Comment garantir que leur agent ne puisse pas exploiter le vôtre ? Ce n’est pas un problème d’alignement. C’est un problème de responsabilité. Et actuellement, les entreprises qui construisent la couche des agents se précipitent pour augmenter leur capacité et leur autonomie, sans mettre en place les systèmes d’identité et de conséquences qui rendent cette autonomie sûre à grande échelle.
Chaque agent aura besoin d’un passeport. Car dès que les agents commencent à négocier, s’engager et transiger au nom de véritables acteurs économiques, l’identité n’est plus optionnelle ; elle devient une infrastructure réelle. La seule incertitude concerne le moment : si nous construisons cette infrastructure délibérément, ou si la première défaillance à grande échelle nous oblige à la construire sous pression, après que la confiance a été brisée.