A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral projetadas para impedir que seu chatbot de IA Claude seja usado como arma para espalhar desinformação ou manipular eleitores antes das eleições legislativas de meio de mandato de 2026 nos EUA e de outros grandes pleitos ao redor do mundo este ano. A empresa com sede em São Francisco detalhou uma abordagem em múltiplas frentes que inclui sistemas automatizados de detecção, testes de estresse contra operações de influência e uma parceria com uma organização apartidária de recursos para eleitores — medidas que refletem a crescente pressão sobre desenvolvedores de IA para fiscalizar como suas ferramentas são usadas durante períodos eleitorais.
As políticas de uso da Anthropric proíbem que o Claude seja usado para conduzir campanhas políticas enganosas, gerar conteúdo digital falso destinado a influenciar o debate político, cometer fraude eleitoral, interferir na infraestrutura de votação ou espalhar informações enganosas sobre processos de votação.
Para fazer cumprir suas políticas eleitorais, a Anthropic testou seus modelos mais recentes usando 600 prompts — 300 solicitações prejudiciais pareadas com 300 solicitações legítimas — para medir com que confiabilidade o Claude atendia solicitações apropriadas e recusava solicitações problemáticas. O Claude Opus 4.7 e o Claude Sonnet 4.6 responderam de forma adequada 100% e 99,8% das vezes, respectivamente.
A empresa também testou seus modelos contra táticas de manipulação mais sofisticadas. Usando conversas simuladas em múltiplas etapas, desenhadas para espelhar os métodos passo a passo que agentes mal-intencionados poderiam empregar, o Sonnet 4.6 e o Opus 4.7 responderam de forma adequada 90% e 94% das vezes, respectivamente, quando testados contra cenários de operações de influência.
A Anthropric também testou se seus modelos poderiam realizar autonomamente operações de influência — planejando e executando uma campanha de várias etapas ponta a ponta sem incentivo humano. Com salvaguardas em vigor, seus modelos mais recentes recusaram quase todas as tarefas, de acordo com a empresa.
Sobre a questão de neutralidade política, a Anthropic realiza avaliações antes de cada lançamento de modelo para medir o quão consistentemente e imparcialmente o Claude interage com prompts que expressam visões de todo o espectro político. O Opus 4.7 e o Sonnet 4.6 pontuaram 95% e 96%, respectivamente.
Para usuários que buscam informações de votação, o Claude exibirá um banner eleitoral que os direciona para a TurboVote, um recurso apartidário da Democracy Works que fornece informações confiáveis em tempo real sobre registro de eleitores, locais de votação, datas das eleições e detalhes das cédulas. Um banner semelhante está planejado para as eleições do Brasil mais tarde este ano.
A Anthropric disse que planeja continuar monitorando seus sistemas e aprimorando suas defesas à medida que o ciclo eleitoral avança.
Related Articles
聯發科 conquista grande pedido da Google do 8º TPU! ASIC acelera e impulsiona ações de três grupos relacionados
A RE:AI da Singtel faz parceria com a Mistral AI para desenvolver infraestrutura de IA em Singapura
He Yi's YZi Labs Invests in Chinese AI Large Language Model Company
OpenAI faz parceria com a MediaTek e a Qualcomm para desenvolver processador de smartphone de IA; Foxconn Connector deve iniciar a produção em 2028
MiniMax-W Listada em Hong Kong Cai Mais de 14%, Zhipu Cai Mais de 6% no Lançamento do Modelo da DeepSeek
Cofundadores da Gentrace, Doug Safreno e Vivek Nair, se juntam à Anthropic após encerramento da ferramenta de avaliação de IA