L’an dernier, plus de 6 millions de dollars ont été échangés sur des contrats de marchés de prédiction portant sur l’élection présidentielle vénézuélienne. Mais, une fois les votes dépouillés, le marché s’est retrouvé face à une impasse : le gouvernement a déclaré Nicolás Maduro vainqueur, tandis que l’opposition et les observateurs internationaux ont dénoncé une fraude. La résolution des contrats sur le marché de prédiction devait-elle suivre « l’information officielle » (victoire de Maduro) ou un « consensus de sources crédibles » (victoire de l’opposition) ?
Dans le cas des élections vénézuéliennes, des observateurs ont dénoncé aussi bien le non-respect des règles et le fait que certains participants se soient « fait voler leur argent », que le protocole de résolution des contrats contestés, qualifié de « juge, jury et bourreau » dans une pièce politique à hauts risques, voire de « totalement truqué ».
Ce n’est pas un incident isolé. Il s’agit, selon moi, de l’un des principaux obstacles à la montée en puissance des marchés de prédiction : la résolution des contrats.
Les enjeux sont considérables. Si la résolution est fiable, la confiance s’installe sur le marché, les utilisateurs souhaitent y échanger et les prix deviennent des signaux pertinents pour la société. Si la résolution est défaillante, le trading devient frustrant et imprévisible. Les participants peuvent s’éloigner, la liquidité risque de se tarir et les prix cessent de refléter des prédictions fiables sur une cible stable. À la place, ils reflètent un mélange confus entre la probabilité réelle de l’événement et les anticipations des traders quant à la façon dont le mécanisme de résolution biaisé tranchera.
Le litige vénézuélien a été relativement médiatisé, mais des défaillances plus subtiles surviennent régulièrement sur d’autres plateformes :
Dans cet article, j’explore comment les LLM et la crypto, combinés intelligemment, pourraient permettre de concevoir des modes de résolution pour les marchés de prédiction à grande échelle, difficiles à manipuler, précis, totalement transparents et crédibles.
Des problématiques similaires ont également touché les marchés financiers. L’International Swaps and Derivatives Association (ISDA) s’efforce depuis des années de résoudre les difficultés de résolution sur le marché des credit default swaps — des contrats qui versent un paiement lorsqu’une entreprise ou un État fait défaut sur sa dette — et son rapport 2024 fait preuve d’une grande transparence sur ces difficultés. Leurs comités de détermination, composés de grands acteurs de marché, votent pour dire si un événement de crédit s’est produit. Mais ce processus est critiqué pour son manque de transparence, ses conflits d’intérêts potentiels et ses résultats incohérents, à l’image du processus UMA.
Le problème de fond est identique : lorsque des sommes importantes dépendent de l’interprétation d’une situation ambiguë, chaque mécanisme de résolution devient une cible potentielle de manipulation, et chaque ambiguïté un point de tension.
À quoi pourrait ressembler un bon mécanisme de résolution ?
Toute solution viable doit réunir plusieurs propriétés essentielles simultanément.
Résistance à la manipulation. Si des adversaires peuvent influencer la résolution — en modifiant Wikipédia, en diffusant de fausses informations, en soudoyant des oracles ou en exploitant des failles procédurales — le marché devient un jeu de manipulation, non de prédiction.
Précision raisonnable. Le mécanisme doit apporter la bonne résolution la plupart du temps. L’exactitude parfaite est impossible dans un monde où l’ambiguïté existe, mais des erreurs systématiques ou manifestes détruiront la crédibilité.
Transparence ex ante. Les traders doivent comprendre précisément comment la résolution sera opérée avant de miser. Modifier les règles en cours viole le contrat fondamental entre la plateforme et ses participants.
Neutralité crédible. Les participants doivent croire que le mécanisme ne favorise ni un trader ni un résultat particulier. C’est pourquoi il est problématique que de gros détenteurs d’UMA résolvent des contrats sur lesquels ils ont parié : même s’ils agissent équitablement, l’apparence d’un conflit mine la confiance.
Des comités humains peuvent répondre à certains de ces critères, mais peinent sur d’autres — notamment la résistance à la manipulation et la neutralité crédible à grande échelle. Les systèmes de vote par token comme UMA présentent aussi des problèmes connus de domination par les baleines et de conflits d’intérêts.
C’est ici que l’IA entre en jeu.
Voici une proposition qui gagne en popularité dans les cercles de marchés de prédiction : utiliser des grands modèles de langage comme juges de résolution, le modèle et l’invite étant figés sur la blockchain lors de la création du contrat.
L’architecture de base fonctionnerait ainsi. À la création du contrat, le market maker précise non seulement les critères de résolution en langage naturel, mais aussi le LLM exact (identifié par une version datée) et l’invite exacte qui seront utilisés pour déterminer le résultat.
Cette spécification est engagée cryptographiquement sur la blockchain. À l’ouverture des échanges, les participants peuvent examiner l’intégralité du mécanisme de résolution — ils savent précisément quel modèle d’IA tranchera, quelle invite il recevra et à quelles sources d’information il aura accès.
S’ils n’acceptent pas ces conditions, ils ne tradent pas.
Au moment de la résolution, le LLM engagé s’exécute avec l’invite prévue, accède aux sources d’information spécifiées et rend un jugement. Ce résultat détermine les paiements.
Cette approche répond simultanément à plusieurs contraintes majeures :
Résiste fortement à la manipulation (sans l’exclure totalement). Contrairement à une page Wikipédia ou à un site d’actualité mineur, il est difficile de modifier les sorties d’un grand LLM. Les poids du modèle sont figés au moment de l’engagement. Pour manipuler la résolution, un adversaire devrait soit corrompre les sources d’information du modèle, soit empoisonner les données d’entraînement bien en amont — deux attaques coûteuses et incertaines, bien plus complexes que soudoyer un oracle ou modifier une carte.
Apporte de la précision. Les modèles de raisonnement progressent rapidement et couvrent un large éventail de tâches intellectuelles, surtout lorsqu’ils peuvent naviguer sur le web et rechercher de nouvelles informations. Les juges LLM devraient pouvoir résoudre correctement de nombreux marchés — et des expérimentations sont en cours pour évaluer leur précision.
Intègre la transparence. Le mécanisme de résolution est entièrement visible et vérifiable avant toute mise. Pas de modification des règles en cours, pas de décisions discrétionnaires, pas de négociations en coulisses. Vous savez exactement à quoi vous vous engagez.
Améliore significativement la neutralité crédible. Le LLM n’a aucun intérêt financier dans le résultat. Il ne peut pas être soudoyé. Il ne détient pas de tokens UMA. Ses biais éventuels relèvent du modèle lui-même, non de parties prenantes prenant des décisions ponctuelles.
Bien sûr, les juges LLM présentent aussi des limites, que je détaille ci-dessous.
Les modèles commettent des erreurs. Un LLM peut mal interpréter un article, halluciner un fait ou appliquer les critères de résolution de façon incohérente. Mais tant que les traders savent avec quel modèle ils parient, ils peuvent intégrer ses faiblesses dans leurs calculs. Si un modèle est connu pour trancher les cas ambigus d’une certaine manière, les traders sophistiqués en tiendront compte. Le modèle n’a pas besoin d’être parfait ; il doit être prévisible.
La manipulation n’est pas impossible, seulement plus difficile. Si l’invite spécifie des sources d’information précises, des adversaires pourraient tenter d’y publier des articles. Cette attaque est coûteuse contre de grands médias, mais possible contre des plus petits — le problème de modification de carte sous une autre forme. La conception de l’invite est ici cruciale : un mécanisme de résolution fondé sur des sources diverses et redondantes est plus robuste qu’un système à point de défaillance unique.
Des attaques par empoisonnement sont théoriquement possibles. Un adversaire doté de ressources suffisantes pourrait essayer d’influencer les données d’entraînement d’un LLM pour biaiser ses jugements futurs. Mais cela suppose d’agir bien en amont, avec des coûts et des résultats incertains — un seuil bien plus élevé que de soudoyer un membre de comité.
La multiplication des juges LLM crée des problèmes de coordination. Si différents créateurs de marché engagent différents LLM avec différentes invites, la liquidité se fragmente. Les traders ne peuvent plus facilement comparer les contrats ni agréger l’information entre marchés. La standardisation a de la valeur — mais il est aussi utile de laisser le marché découvrir les meilleures combinaisons LLM-invite. La solution est probablement hybride : permettre l’expérimentation, tout en offrant à la communauté les moyens de converger vers des standards éprouvés.
En résumé, la résolution par IA échange un ensemble de problèmes (biais humains, conflits d’intérêts, opacité) contre un autre (limites des modèles, défis d’ingénierie des invites, vulnérabilité des sources d’information) qui semblent plus gérables. Comment avancer ? Les plateformes devraient :
Expérimenter en testant la résolution LLM sur des contrats à faibles enjeux pour constituer un historique. Quels modèles sont les plus performants ? Quelles structures d’invite sont les plus robustes ? Quels modes d’échec apparaissent en pratique ?
Standardiser. À mesure que les meilleures pratiques émergent, la communauté devrait s’orienter vers des couples LLM-invite standardisés pouvant servir de références. Cela n’exclut pas l’innovation, mais facilite la concentration de la liquidité sur des marchés bien compris.
Développer des outils de transparence, tels que des interfaces permettant aux traders d’examiner facilement l’intégralité du mécanisme de résolution — le modèle, l’invite, les sources d’information — avant de trader. La résolution ne doit pas être dissimulée dans les petites lignes.
Assurer une gouvernance continue. Même avec des juges IA, des décisions humaines resteront nécessaires sur des questions de méta-gouvernance : quels modèles choisir, comment traiter les cas où les modèles donnent des réponses manifestement erronées, quand mettre à jour les standards. L’objectif n’est pas d’exclure totalement l’humain, mais de passer d’un jugement au cas par cas à une définition systématique des règles.
Les marchés de prédiction ont un potentiel extraordinaire pour nous aider à comprendre un monde complexe et incertain. Mais ce potentiel repose sur la confiance, qui dépend d’une résolution équitable des contrats. Nous avons vu ce qui se produit quand ces mécanismes échouent : confusion, colère, et retrait des traders. J’ai vu des utilisateurs quitter définitivement les marchés de prédiction après s’être sentis lésés par un résultat contraire à l’esprit de leur pari — renonçant à des plateformes qu’ils appréciaient. C’est une occasion manquée d’exploiter les bénéfices et applications élargies des marchés de prédiction.
Les juges LLM ne sont pas parfaits. Mais associés à la technologie crypto, ils offrent transparence, neutralité et résistance aux manipulations qui ont miné les systèmes humains. Dans un monde où les marchés de prédiction se développent plus vite que nos mécanismes de gouvernance, c’est peut-être exactement ce dont nous avons besoin.





