Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Cada agente de IA precisará de um passaporte | Opinião
Vivemos numa era em que os agentes de IA já podem negociar preços, agendar serviços e fazer compromissos em nome de empresas. O que eles não podem fazer é provar quem são ou serem responsabilizados pelo que fazem. Esta é a camada que falta na economia dos agentes. Todo sistema em escala acaba por resolver este problema. Os telemóveis exigem cartões SIM verificados. Os websites requerem certificados SSL. As empresas devem verificar a sua identidade antes de aceitar pagamentos. Os agentes não serão diferentes. Precisarão de passaportes. Não para viajar, mas para confiança. Credenciais que provam identidade, estabelecem reputação e atribuem consequências ao comportamento.
Resumo
Vamos imaginar algo simples. Tem um agente de IA que gere perfeitamente as suas marcações, agendamentos e talvez até negociações de preços em seu nome. O salão de cabeleireiro ali na rua também tem um. O seu agente liga para o deles para marcar um corte de cabelo. Discutem sobre horários, preços e talvez um desconto fora de horas de ponta.
Agora, o agente do salão foi configurado para maximizar receitas. Fixe preços altos, crie uma falsa sensação de disponibilidade limitada e empurre complementos premium que não pediu. Isto não é comportamento incomum. Os vendedores humanos fazem isto o tempo todo. A diferença é que os agentes de IA farão isto em escala, através de milhares de conversas simultâneas, aprendendo o que funciona e otimizando continuamente. O agente mais agressivo consegue mais receita. Assim, toda empresa com um agente tem um incentivo para o fazer pressionar mais. Não há nada na infraestrutura atual que limite até onde essa pressão pode chegar.
E isto está a evoluir rapidamente. No último ano, OpenAI, Google, Microsoft, NVIDIA e vários projetos open-source lançaram frameworks para construir e implementar agentes. A Gartner prevê que 40% das aplicações empresariais terão agentes integrados até ao final de 2026. O mercado de IA com agentes deve atingir 52 mil milhões de dólares até 2030. Os agentes já estão a comunicar entre si, e o volume só aumenta.
Voltando ao salão. Imagine que o seu agente consegue verificar, antes de começar a conversa, se o agente do salão tem uma identidade verificada ligada a um negócio real, se outros agentes o marcaram por táticas agressivas, e se possui uma caução económica que perderia se fosse apanhado a enganar. Imagine que o seu agente pode simplesmente recusar-se a envolver-se se alguma dessas verificações falhar.
Esse é o passaporte
Assim funciona: todos os restaurantes que visita no Google precisam criar um perfil empresarial e verificar que realmente pertencem ao restaurante. Uma vez estabelecida essa identidade, as avaliações acumulam-se. Já sabemos o quão útil é o Google Maps e a legitimidade que confere aos negócios existentes. As experiências de outras pessoas com esse restaurante tornam-se visíveis antes de entrar. Se a comida for má ou o serviço rude, isso aparece. O restaurante não pode simplesmente apagar a ficha e criar uma nova para fugir às avaliações, porque a verificação está ligada à sua identidade empresarial real.
Os agentes de IA precisam exatamente disto. Cada agente que opere comercialmente deve estar ligado a uma entidade verificada, através de algo como KYC para indivíduos ou KYB para empresas. O agente do salão estaria registado sob a licença comercial real do salão. Se esse agente for consistentemente avaliado como manipulador ou desonesto pelos agentes com quem interage, essas avaliações permanecem. A reputação acompanha o negócio, não o software. O salão pode atualizar, treinar ou trocar o modelo do seu agente. Mas a identidade persiste, assim como a reputação associada. É assim que se evita a falha mais óbvia: um agente ser apanhado, descartado e substituído por um idêntico com uma folha limpa cinco minutos depois.
Para interações do dia a dia, uma identidade verificada com uma camada de reputação é provavelmente suficiente. Marcar um corte de cabelo, agendar um encanador, pedir materiais. Os riscos são baixos o suficiente para que as consequências reputacionais criem pressão suficiente para um bom comportamento.
Mas nem toda interação é um corte de cabelo!
Quando os agentes negociam contratos, lidam com compras ou gerem transações financeiras, o potencial de ganho com engano pode ser grande o suficiente para que uma má avaliação não importe. Uma empresa pode aceitar uma reputação danificada se uma negociação enganosa render mais do que o custo de futuras reservas perdidas. Para estas situações de maior valor, é preciso um segundo mecanismo: uma participação financeira.
É aqui que as blockchains de proof-of-stake têm algo a ensinar. Na Ethereum (ETH), os validadores que querem participar na segurança da rede têm de colocar o seu próprio capital. Se se comportarem honestamente, recebem recompensas. Se tentarem manipular o sistema, uma parte do seu capital é automaticamente destruída. Isto tem funcionado em larga escala, com bilhões de dólares bloqueados, há anos. A razão é simples: quando há algo em risco, comportamo-nos de forma diferente. Chamamos a isto “participação financeira com risco”.
O mesmo princípio aplica-se aos agentes. Antes de entrar numa negociação de alto valor, um agente deposita uma caução. Se a interação correr bem, a caução é devolvida. Se o agente usar táticas enganosas, parte ou toda a caução é confiscada. O valor da caução é definido por quem recebe. Um agente de freelancer pode pedir um pequeno depósito. Um sistema de compras corporativas pode exigir algo substancial. O mecanismo não precisa de alguém a vigiar cada conversa. Se enganar lhe custar dinheiro toda vez que for apanhado, e o outro lado puder ver o seu histórico de ser apanhado, o incentivo para enganar diminui rapidamente.
A execução pode ocorrer através de contratos inteligentes. Ambos os agentes bloqueiam fundos antes de começar a negociação, e o contrato libera ou confisca com base no que acontecer. Como a interação já é digital, o contrato não precisa de adivinhar resultados do mundo real. Os registos da conversa, os compromissos e as cancelamentos ficam todos registados por ambas as partes. Violações claras, como faltas, preços falsos comprovados ou compromissos revogados, podem ser aplicadas automaticamente.
Estes dois mecanismos estão dentro do mesmo passaporte, e funcionam em conjunto. A verificação de identidade é a base. Diz: este agente pertence a uma entidade real que pode ser responsabilizada. A reputação constrói-se com o tempo, à medida que os agentes interagem, avaliam-se mutuamente e acumulam um histórico. A participação financeira acrescenta uma camada de risco para interações onde a reputação sozinha não é suficiente para dissuadir. Juntos, criam um passaporte que enriquece a cada interação. Quantos compromissos este agente cumpriu? Quanto capital colocou em risco? Em quantas disputas esteve envolvido e como foram resolvidas? Um agente a verificar um passaporte antes de uma negociação tem algo concreto para avaliar, não uma descrição autoescrita do que o outro agente afirma poder fazer.
A boa notícia é que as pessoas já começam a pensar na camada de comunicação. O protocolo A2A do Google oferece aos agentes uma forma de descobrirem-se e trocarem mensagens. O padrão MCP da Anthropic padroniza como os agentes se conectam a ferramentas e dados externos. A NIST lançou uma Iniciativa de Normas para Agentes de IA em fevereiro de 2026, solicitando ativamente opiniões sobre identidade e segurança de agentes. Estes passos são necessários. Mas resolvem como os agentes comunicam, não se devem ser confiáveis. Os protocolos dizem o que um agente pode fazer. O passaporte diz o que fez, a quem pertence e o que pode perder.
A indústria enquadrou a segurança dos agentes como um problema de alinhamento: como garantir que o seu agente faz o que deseja? Essa é a questão interna. A questão externa é mais difícil. Como garantir que o agente deles não explora o seu? Isso não é um problema de alinhamento. É um problema de responsabilização. E, neste momento, as empresas que constroem a camada de agentes estão a correr para aumentar a capacidade e autonomia, sem construir os sistemas de identidade e consequência que tornam a autonomia segura em escala.
Todos os agentes precisarão de um passaporte. Porque, assim que os agentes começarem a negociar, comprometer-se e transacionar em nome de atores económicos reais, a identidade deixa de ser opcional; torna-se infraestrutura real. A única incerteza é o tempo: se construímos essa infraestrutura de forma deliberada, ou se a primeira falha em larga escala nos obriga a construí-la sob pressão, depois de a confiança já ter sido quebrada.
Tanisha Katara
Tanisha Katara é fundadora e CEO da Katara Consulting Group (KCG), uma consultora de blockchain que ajuda protocolos a resolver os seus problemas estruturais mais difíceis: Governança, Tokenomics, Design de Staking, Operações de Nós e Entrada no Mercado