Fonte da imagem: https://x.com/im23pds/status/2031163246783410581
Em março de 2026, o diretor de segurança da SlowMist, empresa especializada em segurança blockchain, alertou publicamente para a possibilidade de manipulação dos resultados de pesquisa Bing AI por métodos de "search poisoning". Os atacantes atraíram utilizadores para descarregar um programa falso OpenClaw, apropriando-se de ativos cripto e informações confidenciais.
"Search poisoning" descreve o processo em que atacantes desenvolvem websites ou repositórios específicos para subir nos rankings dos motores de busca. Quando utilizadores pesquisam determinadas palavras-chave, os sites maliciosos podem aparecer nos primeiros lugares ou ser citados diretamente por resultados de pesquisa baseados em IA.
Neste caso, pesquisas por termos como “OpenClaw Windows” levaram o Bing AI a recomendar um repositório GitHub fraudulento como fonte de download. Após a execução do instalador, vários dispositivos foram infetados com malware de roubo de dados.
Especialistas em segurança confirmaram que o repositório e o instalador maliciosos já foram removidos, mas o incidente provocou debate generalizado sobre a segurança das pesquisas IA e a proteção de ativos cripto.
Fonte da imagem: OpenClaw Official Site
OpenClaw tornou-se recentemente uma ferramenta open-source de referência para a comunidade de desenvolvimento de agentes IA e automação, usada para construir agentes IA, automatizar tarefas e criar toolchains de desenvolvimento.
Com a rápida evolução dos frameworks de desenvolvimento de agentes IA e automação, a adesão a estas ferramentas está a crescer de forma acelerada.
Este ecossistema de programadores em expansão é especialmente apetecível para atacantes, devido a vários fatores:
Assim, ao distribuir instaladores OpenClaw falsos, os atacantes têm acesso direto a dispositivos com chaves privadas de wallets, contas de trading ou chaves API.
Investigadores identificaram a criação da organização GitHub “openclaw-installer” por atacantes, que publicaram repositórios aparentemente legítimos.
Para aumentar a credibilidade, copiaram partes do código-fonte genuíno, tornando a estrutura do repositório bastante convincente.
A reputação do GitHub junto da comunidade de desenvolvimento, aliada às recomendações da IA, levou muitos utilizadores a assumir que o repositório era oficial.
O ataque decorreu assim:
Este ataque explora a confiança no open-source e as recomendações IA, multiplicando o seu potencial de sucesso.
Os investigadores verificaram que os atacantes criaram payloads distintos para cada sistema operativo.
Vetor de ataque Windows:
Vetor de ataque macOS:
Estes programas maliciosos destinam-se sobretudo ao roubo de:
Após a recolha, os atacantes podem transferir rapidamente os ativos cripto das vítimas.
Embora o search poisoning exista há muito tempo, o avanço das pesquisas impulsionadas por IA agrava o impacto. A investigação revela que atacantes manipulam conteúdos web, estrutura de repositórios e palavras-chave para promover recursos maliciosos nos resultados de pesquisa.
A pesquisa IA traz riscos acrescidos:
Analistas de segurança alertam que a simples disponibilização de código malicioso num repositório GitHub aparentemente legítimo pode levar à sua indexação e recomendação por motores de busca.
Assim, a combinação de pesquisa IA e plataformas open-source consolida-se como novo vetor de ataque relevante.
Este episódio evidenciou três tendências principais:
À medida que agentes IA e ferramentas de automação ganham notoriedade, cresce o uso de malware disfarçado de ferramenta IA.
Plataformas como GitHub e PyPI, apesar de abertas e transparentes, são vulneráveis ao abuso por agentes maliciosos.
Malware stealer procura sobretudo:
Uma vez comprometidos, estes ativos são raramente recuperáveis.
Dada a crescente sofisticação dos ataques, recomenda-se aos utilizadores que adotem as seguintes práticas:
Evitar downloads diretos a partir de resultados de pesquisa; recorrer sempre a GitHub ou sites oficiais.
Avaliar:
Projetos com maior preocupação pela segurança disponibilizam assinaturas SHA256 ou GPG.
Evitar armazenar chaves privadas de alto valor em ambientes de desenvolvimento.
Mesmo perante compromissos no computador, hardware wallets garantem proteção adicional robusta.
O caso de manipulação nas pesquisas Bing AI demonstra que os sistemas IA continuam a apresentar dificuldades na filtragem de conteúdos confiáveis.
À medida que pesquisas IA, agentes IA e ferramentas de automação se tornam portas de entrada fundamentais na internet, os atacantes refinam os seus métodos, incluindo:
No futuro, as plataformas terão de reforçar as suas defesas através de:
Para os utilizadores, numa era de integração entre ferramentas IA e ativos cripto, a consciência de segurança torna-se a principal barreira para proteger ativos digitais.





