No ano passado, mais de 6 milhões $ foram negociados em contratos de mercados de previsão sobre o resultado das eleições presidenciais na Venezuela. Porém, quando os votos foram contabilizados, o mercado encontrou-se perante uma situação impossível: o governo declarou Nicolás Maduro vencedor; a oposição e os observadores internacionais alegaram fraude. A resolução dos contratos dos mercados de previsão deveria ter seguido a “informação oficial” (vitória de Maduro) ou um “consenso de notícias credíveis” (vitória da oposição)?
No caso das eleições venezuelanas, os observadores relataram desde o desrespeito pelas regras e participantes que viram "o seu dinheiro roubado", até a descrição do protocolo desenhado para resolver contratos disputados como "juiz, júri e carrasco" num drama político de alto risco, referindo ainda que foi "gravemente manipulado“”
Este não foi um caso isolado. É um sintoma do que considero um dos maiores obstáculos ao crescimento dos mercados de previsão: a resolução dos contratos.
Os riscos são elevados. Se a resolução for correta, os participantes confiam no mercado, querem negociar, e os preços tornam-se sinais relevantes para a sociedade. Se a resolução falhar, negociar torna-se frustrante e imprevisível. Os participantes podem afastar-se, a liquidez corre o risco de desaparecer e os preços deixam de refletir previsões fiáveis de um alvo estável. Em vez disso, os preços passam a refletir uma mistura incerta entre a probabilidade real do resultado e as expectativas dos negociadores sobre como o mecanismo de resolução distorcido irá decidir.
A disputa na Venezuela teve grande visibilidade, mas falhas mais subtis ocorrem regularmente em várias plataformas:
Neste artigo exploro como LLMs e cripto, combinados de forma inteligente, podem ajudar a criar formas de resolver mercados de previsão em escala que sejam difíceis de manipular, precisos, totalmente transparentes e credivelmente neutros.
Problemas semelhantes também afetaram os mercados financeiros. A International Swaps and Derivatives Association (ISDA) passou anos a lidar com os desafios de resolução no mercado de credit default swap — contratos que pagam quando uma empresa ou país entra em incumprimento da dívida — e a sua revisão de 2024 é especialmente transparente quanto às dificuldades. Os seus comités de Determinações, compostos por grandes participantes do mercado, votam sobre se ocorreram eventos de crédito. Mas o processo tem sido criticado pela opacidade, potenciais conflitos de interesse e resultados inconsistentes, tal como acontece com o processo UMA.
O problema fundamental é o mesmo: Quando grandes somas de dinheiro dependem da determinação do que aconteceu numa situação ambígua, todo o mecanismo de resolução torna-se alvo de manipulação, e cada ambiguidade pode transformar-se num ponto de tensão.
Então, como seria um bom mecanismo de resolução?
Qualquer solução viável precisa de reunir várias propriedades essenciais em simultâneo
Resistência à manipulação. Se adversários puderem influenciar a resolução — editando a Wikipedia, plantando notícias falsas, subornando oráculos ou explorando lacunas processuais — o mercado transforma-se num jogo de quem manipula melhor, não de quem prevê melhor.
Precisão razoável. O mecanismo tem de acertar na maioria das resoluções, na maioria das vezes. A precisão perfeita é impossível num mundo de ambiguidade genuína, mas erros sistemáticos ou falhas óbvias destroem a credibilidade.
Transparência ex ante. Os negociadores precisam de compreender exatamente como funciona a resolução antes de apostarem. Alterar regras a meio viola o pacto básico entre plataforma e participante.
Neutralidade credível. Os participantes têm de acreditar que o mecanismo não favorece nenhum negociador ou resultado em particular. Por isso é tão problemático que grandes detentores de UMA resolvam contratos em que apostaram: mesmo que atuem com justiça, a aparência de conflito mina a confiança.
Comités humanos podem satisfazer algumas destas propriedades, mas têm dificuldades noutras — sobretudo na resistência à manipulação e na neutralidade credível em escala. Sistemas de votação baseados em tokens como UMA têm problemas conhecidos de domínio por grandes investidores e conflitos de interesse.
É aqui que entra a IA.
Eis uma proposta que tem ganhado força nos círculos dos mercados de previsão: Utilizar grandes modelos de linguagem como juízes de resolução, com o modelo específico e o prompt bloqueados na blockchain no momento da criação do contrato.
A arquitetura básica funcionaria assim. No momento de criação do contrato, o criador do mercado especifica não apenas os critérios de resolução em linguagem natural, mas o LLM exato (identificado pela versão do modelo com carimbo temporal) e o prompt exato que será usado para determinar o resultado.
Esta especificação é registada criptograficamente na blockchain. Quando a negociação abre, os participantes podem inspecionar todo o mecanismo de resolução — sabem exatamente que modelo de IA irá julgar o resultado, que prompt irá receber e a que fontes de informação terá acesso.
Se não concordam com o mecanismo, não negociam.
No momento da resolução, o LLM registado executa o prompt definido, acede às fontes de informação especificadas e produz um julgamento. O resultado determina quem recebe o pagamento.
Esta abordagem responde a várias das restrições principais em simultâneo:
Resiste fortemente à manipulação (embora não absolutamente). Ao contrário de uma página da Wikipedia ou de um site de notícias menor, não se edita facilmente os resultados de um grande LLM. Os pesos do modelo ficam fixos no momento do registo. Para manipular a resolução, o adversário teria de corromper as fontes de informação em que o modelo se baseia, ou envenenar os dados de treino do modelo com grande antecedência — ambos ataques dispendiosos e incertos, comparados com subornar um oráculo ou editar um mapa.
Garante precisão. Com modelos de raciocínio a evoluir rapidamente e capazes de uma gama impressionante de tarefas intelectuais, especialmente quando podem navegar na web e procurar novas informações, os juízes LLM devem conseguir resolver muitos mercados com precisão — e estão a decorrer experiências para avaliar a sua fiabilidade.
Incorpora transparência. Todo o mecanismo de resolução é visível e auditável antes de alguém apostar. Não há alterações de regras a meio, nem julgamentos discricionários, nem negociações de bastidores. Sabe-se exatamente ao que se está a aderir.
Melhora significativamente a neutralidade credível. O LLM não tem interesse financeiro no resultado. Não pode ser subornado. Não detém tokens UMA. Os seus enviesamentos, sejam quais forem, são propriedades do próprio modelo — e não de partes interessadas a tomar decisões ad hoc.
Naturalmente, os juízes LLM têm limitações, que descrevo e abordo abaixo.
Os modelos cometem erros. Um LLM pode interpretar mal um artigo de notícias, criar factos fictícios, ou aplicar critérios de resolução de forma inconsistente. Mas, desde que os negociadores saibam com que modelo estão a apostar, podem ajustar as suas expectativas. Se um modelo tem tendência conhecida para resolver casos ambíguos de determinada forma, os negociadores sofisticados vão ter isso em conta. O modelo não precisa de ser perfeito; precisa de ser previsível.
A manipulação não é impossível, apenas mais difícil. Se o prompt especifica fontes de notícias concretas, adversários podem tentar publicar notícias nessas fontes. Este ataque é caro contra grandes meios, mas potencialmente viável contra meios mais pequenos — o problema da edição de mapas noutra forma. O design do prompt é crucial: mecanismos de resolução que dependem de fontes diversificadas e redundantes são mais robustos do que os que dependem de um único ponto de falha.
A envenenamento de dados é teoricamente possível. Um adversário com recursos suficientes pode tentar influenciar os dados de treino de um LLM para enviesar os seus julgamentos futuros. Mas isso exige ação com grande antecedência, resultados incertos e custos elevados — um obstáculo muito maior do que subornar um membro do comité.
A proliferação de juízes LLM cria problemas de coordenação. Se diferentes criadores de mercados optam por diferentes LLMs com diferentes prompts, a liquidez fragmenta-se. Os negociadores não conseguem comparar contratos facilmente nem agregar informação entre mercados. Existe valor na padronização — mas também no facto de o mercado poder descobrir que combinações LLM-prompt funcionam melhor. A resposta certa será provavelmente uma combinação: permitir a experimentação, mas criar mecanismos para a comunidade convergir para padrões bem testados ao longo do tempo.
Em resumo: a resolução baseada em IA troca um conjunto de problemas (viés humano, conflitos de interesse, opacidade) por outro (limitações dos modelos, desafios de engenharia de prompts, vulnerabilidades das fontes de informação) que podem ser mais fáceis de resolver. Como avançar? As plataformas devem:
Experimentar, testando a resolução por LLM em contratos de menor risco para criar um histórico. Que modelos têm melhor desempenho? Que estruturas de prompt são mais robustas? Que tipos de falha surgem na prática?
Padronizar. À medida que se consolidam boas práticas, a comunidade deve trabalhar para padronizar combinações LLM-prompt que possam servir de padrão. Isto não impede a inovação, mas ajuda a concentrar liquidez em mercados bem compreendidos.
Criar ferramentas de transparência, como interfaces que permitam aos negociadores inspecionar facilmente todo o mecanismo de resolução — o modelo, o prompt, as fontes de informação — antes de negociar. A resolução não deve estar escondida nas letras pequenas.
Realizar governança contínua. Mesmo com juízes IA, os humanos terão de tomar decisões ao nível meta: que modelos confiar, como lidar com casos em que os modelos dão respostas obviamente erradas, quando atualizar padrões. O objetivo não é remover totalmente os humanos do processo, mas passar de decisões ad hoc caso a caso para definição sistemática de regras.
Os mercados de previsão têm um potencial extraordinário para nos ajudar a compreender um mundo ruidoso e complexo. Mas esse potencial depende da confiança, e a confiança depende de uma resolução justa dos contratos. Já vimos o que acontece quando os mecanismos de resolução falham: confusão, frustração e negociadores que abandonam o mercado. Já vi pessoas a desistir dos mercados de previsão por se sentirem enganadas por um resultado que parecia contradizer o espírito da sua aposta — afastando-se de plataformas que antes apreciavam. Isto é uma oportunidade perdida para desbloquear os benefícios e aplicações mais amplas dos mercados de previsão.
Os juízes LLM não são perfeitos. Mas, quando combinados com a tecnologia cripto, são transparentes, neutros e resistentes aos tipos de manipulação que têm afetado os sistemas baseados em humanos. Num mundo em que os mercados de previsão estão a crescer mais depressa do que os mecanismos de governança, isto pode ser exatamente o que precisamos.





