BBC jornalista Thomas Germain revela uma dura realidade: experimento profundo de falsificação demonstra que ninguém consegue mais provar que não é uma IA.
(Antecedentes: ZachXBT expõe fake news do “fim do mundo”: usando IA para manipular tráfego de guerra, fraudes, memes e lucros de dezenas de milhares de dólares)
(Complemento: Far East Commercial Bank e Ministério Público assinam MOU: 95% do fluxo financeiro de criptomoedas de Taiwan passa a integrar estrutura anti-lavagem e anti-fraude)
Índice do artigo
Alternar
O jornalista Thomas Germain descreveu ontem à noite um experimento perturbador: ligou para sua tia Eleanor, que conhece há toda a vida, e avisou que a próxima chamada poderia ser de uma pessoa real ou de uma IA deepfake.
O resultado: ela não conseguiu distinguir. Germain conclui: se nem mesmo familiares podem saber a verdade, o problema vai além da tecnologia.
Ele perguntou ao professor de ciência forense digital da Universidade da Califórnia, Berkeley, cofundador da GetReal Security, Hany Farid: “O que posso fazer agora para provar que não sou uma IA?” A resposta de Farid foi uma única palavra: Não.
Você está em Nova York, eu estou em Berkeley, fazemos uma videochamada. A realidade é que tudo isso pode estar disfarçado.
Depois, Farid disse algo que arrepia: “Não há como. Acabou (It’s over).”
Germain também cita um caso recente absurdo. Quando o primeiro-ministro de Israel, Netanyahu, publicou um vídeo, a refração da luz fez parecer que sua mão direita tinha um dedo a mais: uma falha clássica na identificação de deepfakes.
Na hora, a internet explodiu: rumores de que ele havia morrido em ataque de mísseis, o vídeo era falso.
Para provar sua inocência, Netanyahu publicou uma segunda e uma terceira vídeo, levantando as mãos em um café, mostrando um a um os dedos corretamente. Germain aponta que Farid posteriormente analisou esses vídeos com reconhecimento de voz, detecção facial quadro a quadro e análise de luz e sombra, concluindo: todos eram autênticos, sem evidências de IA.
Jeremy Carrasco, cofundador da Riddance, também afirmou à BBC: “Seis dedos já não é mais um sinal de IA, as melhores ferramentas corrigiram isso há anos.”
Porém, Germain observa uma ironia: mesmo com respaldo de especialistas, muitas pessoas ainda acreditam que Netanyahu morreu. Ele escreve que talvez seja a primeira vez na história que líderes mundiais são obrigados a provar publicamente que não são IA — e falham.
Germain introduz o conceito de “benefício do mentiroso” definido por pesquisadores: Provar a verdade é caro, criar dúvidas é gratuito. Políticos podem facilmente alegar que um vídeo verdadeiro é deepfake, e refutar essa acusação exige tempo, recursos e credibilidade que custam mais do que espalhar rumores.
Samuel Woolley, presidente do Centro de Estudos de Desinformação da Universidade de Pittsburgh, aponta uma trajetória histórica alarmante: “No início da guerra na Ucrânia, vi deepfakes toscos. Na era de Gaza, conteúdos falsos aumentaram em quantidade e qualidade. Na Venezuela, vi mais conteúdo falso do que verdadeiro. E no Irã, isso atingiu um novo nível.”
Ele também cita políticos que promovem regulações: “Eles estão colhendo o que plantaram.”
Quanto às soluções, Germain chega a uma conclusão surpreendente: os principais especialistas em deepfake, como Farid, sugerem o método mais simples: código secreto.
Farid contou à BBC que ele e sua esposa têm uma senha especial para verificar suspeitas por telefone. É uma forma de autenticação multifator, uma versão interpessoal: quando a tecnologia falha, volta-se à confiança básica.
Embora o foco de Germain seja a crise de confiança social, dados da AARP revelam um impacto financeiro direto: entre 2023 e 2025, fraudes relacionadas à IA aumentaram 20 vezes. A empresa britânica Arup perdeu US$ 25 milhões após um deepfake de seu diretor financeiro em uma videochamada.
O mercado de criptomoedas está ainda mais ameaçado. Segundo a Fintech Global, no primeiro trimestre de 2026, fraudes em criptomoedas atingiram US$ 200 milhões, aumento de 340% ao ano; estima-se que deepfake represente 70% do crime no setor.
Um instrumento que preocupa reguladores é o ProKYC: por apenas US$ 629 anuais, oferece simuladores virtuais, animações faciais e geração de impressões digitais, permitindo criar identidades falsas do zero e burlar sistemas de verificação biométrica de exchanges. O Departamento do Tesouro dos EUA já exige maior regulação na integração de IA e identidades digitais.
Outra mudança potencialmente maior é que agentes de IA podem agora possuir carteiras e iniciar transações autonomamente. Nesse cenário, quem é o cliente: humano ou IA? A definição de KYC pode ficar em vácuo.
Ironicamente, criamos sistemas de verificação para identificar IA, mas ela evolui para escapar deles. E, no final, a única solução que talvez reste seja um velho código secreto entre você e seus entes queridos.