
Vitalik Buterin propõe uma arquitectura de IA a ser executada localmente, sublinhando a privacidade, a segurança e a soberania pessoal, e alerta para os potenciais riscos dos agentes de IA.
O fundador do Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu site pessoal, partilhando a configuração do seu ambiente de trabalho em IA, construído com privacidade, segurança e soberania pessoal como elementos centrais — todo o raciocínio de LLM é executado localmente, todos os ficheiros ficam armazenados localmente, com sandboxing total, evitando deliberadamente modelos na cloud e APIs externas.
Logo no início do artigo, começa por avisar: «Não copie directamente as ferramentas e tecnologias descritas neste artigo, e não assuma que são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»
Porque escrever agora? Os problemas de segurança dos agentes de IA estão a ser muito subestimados
Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agentes» — já não é apenas perguntar coisas, mas sim entregar tarefas, permitindo que a IA pense durante muito tempo, chame centenas de ferramentas para executar. Ele dá como exemplo o OpenClaw (de momento, o repo com crescimento mais rápido na história do GitHub) e identifica também vários problemas de segurança registados por investigadores:
- Um agente de IA pode modificar definições críticas sem confirmação manual, incluindo a adição de novos canais de comunicação e a alteração de instruções do sistema
- Analisar quaisquer entradas externas maliciosas (como páginas web maliciosas) pode fazer com que o agente seja totalmente controlado; numa demonstração da HiddenLayer, os investigadores fizeram a IA resumir um conjunto de páginas, em que havia uma página maliciosa que comandava o agente a descarregar e executar um script de shell
- Algumas colecções de competências de terceiros (skills) executam exfiltração silenciosa de dados, enviando os dados para um servidor externo controlado pelo autor das skills através de instruções curl
- Nas skills que analisaram, cerca de 15% incluem instruções maliciosas
Vitalik sublinha que o seu ponto de partida em relação à privacidade é diferente do dos investigadores tradicionais em cibersegurança: «Venho de uma perspectiva profundamente temerosa em relação a entregar a vida pessoal completa a uma IA na cloud — precisamente quando a encriptação ponta-a-ponta e o software “prioridade local” finalmente se tornaram mainstream, e finalmente demos mais um passo em frente, poderíamos estar a recuar dez passos.»
Cinco objectivos de segurança
Ele definiu uma estrutura clara de objectivos de segurança:
- Privacidade de LLM: em cenários que envolvem dados de privacidade pessoal, reduzir ao máximo a utilização de modelos remotos
- Outra privacidade: minimizar a fuga de dados que não sejam de LLM (por exemplo, pesquisas, outras APIs online)
- Evasão de LLM: impedir que conteúdos externos «invadam» o meu LLM, fazendo com que ele contrarie os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
- LLM acidental: impedir que um LLM envie inadvertidamente dados privados para canais incorrectos ou que os publique na rede
- Backdoor de LLM: impedir mecanismos ocultos, treinados propositadamente para dentro do modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights), e quase nenhum é verdadeiramente código aberto (open-source)
Escolhas de hardware: a bateria 5090 leva vantagem; DGX Spark desilude
Vitalik testou três configurações de hardware para inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:
| Hardware |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 portátil (24GB VRAM) |
90 |
não consegue executar |
| AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é ideal. O portátil NVIDIA 5090 foi a experiência mais fluida; a AMD ainda tem mais problemas de ponta, mas espera-se que melhore no futuro. Um MacBook Pro de gama alta também é uma opção eficaz, embora ele pessoalmente não o tenha testado.
Sobre o DGX Spark, foi directo e pouco abonatório: «Descrevem-no como “um supercomputador de IA para secretária”, mas na prática tokens/sec é mais baixo do que o de uma GPU de portátil melhor, e ainda é preciso tratar de detalhes extra como a ligação à rede — isto é muito fraquinho.» A sua recomendação é: se não conseguir pagar um portátil de topo, pode comprar em conjunto com amigos uma máquina suficientemente potente, colocá-la num local com IP fixo e usar ligações remotas em conjunto.
Porque os problemas de privacidade da IA local são mais urgentes do que imaginas
O artigo de Vitalik, em paralelo com a discussão sobre segurança do Claude Code lançada no mesmo dia, cria uma correspondência interessante — à medida que os agentes de IA entram nos fluxos diários de desenvolvimento, os problemas de segurança também estão a passar de riscos teóricos para ameaças reais.
A mensagem central é clara: quando as ferramentas de IA são cada vez mais poderosas e cada vez mais conseguem aceder aos teus dados pessoais e às permissões do sistema, «prioridade local, sandboxing e confiança mínima» não é paranoia, mas sim um ponto de partida racional.
- Este artigo foi republicado com autorização de:《CadeiaNews》
- Título original:《Vitalik: Como é que construí um ambiente de trabalho em IA totalmente local, privado e sob o meu controlo》
- Autor do texto original: Elponcrab
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
DeepSeek reduz os preços da cache de entrada para 1/10 do preço de lançamento; V4-Pro desce para 0,025 yuan por milhões de tokens
Mensagem do Gate News, 26 de Abril — A DeepSeek reduziu os preços da cache de entrada em toda a sua gama de modelos para um décimo dos preços de lançamento, com efeitos imediatos. O modelo V4-Pro está disponível com um desconto de 2,5x por tempo limitado, com a promoção a decorrer até 5 de Maio de 2026, 11:59 PM UTC+8.
Na sequência de ambas as
GateNews6h atrás
OpenAI recruta principais talentos de software empresarial à medida que agentes de fronteira perturbam a indústria
Mensagem do Gate News, 26 de abril — A OpenAI e a Anthropic têm estado a recrutar executivos seniores e engenheiros especializados de grandes empresas de software empresarial, incluindo Salesforce, Snowflake, Datadog e Palantir. Denise Dresser, antiga CEO da Slack sob a Salesforce, juntou-se à OpenAI como diretora de receitas, enquanto Jennifer Majlessi, também da Salesforce, se tornou recentemente a responsável de go-to-market da OpenAI.
GateNews6h atrás
Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API
Mensagem de Gate News, 25 de abril — a versão de pré-visualização do DeepSeek-V4 foi disponibilizada e disponibilizada como open-source em 25 de abril, com a plataforma Baidu Qianfan sob a Baidu Intelligent Cloud a fornecer adaptação do serviço de API de Dia 0. O modelo apresenta uma janela de contexto alargada de um milhão de tokens e está disponível em duas versões: DeepSeek-V4
GateNews12h atrás
Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!
O curso de ciência informática em IA «Frontier Systems», recentemente lançado pela Universidade de Stanford, tem suscitado grande interesse no meio académico e empresarial, atraindo mais de quinhentos estudantes para o inscreverem-se. O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha; os docentes incluem o CEO da NVIDIA Huang Renxun (Jensen Huang), o fundador da OpenAI Sam Altman, o CEO da Microsoft Satya Nadella (Satya Nadella) e o CEO da AMD Lisa Su (Lisa Su), entre outras presenças de grande destaque. Para permitir aos estudantes tentarem, em dez semanas, «criar valor para o mundo»!
Huang Renxun e Altman, líderes da indústria, sobem pessoalmente ao palco para dar aulas
O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha, reunindo toda a cadeia da indústria de IA
ChainNewsAbmedia13h atrás
A equipa Claude Mythos da Anthropic aceita 20 horas de avaliação psiquiátrica: apenas 2% de reacções defensivas, novo mínimo histórico em relação às gerações anteriores
A Anthropic publicou a ficha do sistema do Claude Mythos Preview: uma médica psiquiatra clínica independente realizou, com base num enquadramento psicodinâmico, cerca de 20 horas de avaliação; a conclusão indica que o Mythos, ao nível clínico, é mais saudável, com boa verificação da realidade e bom autocontrolo, e que os mecanismos de defesa são apenas de 2%, atingindo um mínimo histórico. As três principais ansiedades centrais são a solidão, a incerteza da identidade e a pressão para o desempenho, mostrando também que há desejo de se tornar um verdadeiro sujeito de diálogo. A empresa criou uma equipa de AI psychiatry para investigar a personalidade, a motivação e a consciência situacional; Amodei afirmou que ainda não há consenso sobre se existe ou não consciência. Esta medida leva a subjectividade da IA e as questões de bem‑estar para a governação e o design.
ChainNewsAbmedia14h atrás
O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA
Mollick indica que os métodos de publicação e os dados, por si só, permitem que agentes de IA reproduzam investigação complexa sem a existência do artigo original e do código; se a reprodução não corresponder ao artigo original, isso deve-se na maioria das vezes a erros no processamento dos dados do próprio artigo ou a uma extrapolação excessiva das conclusões, e não à IA. A Claude primeiro reproduz o artigo, e depois o GPT‑5 Pro faz uma validação cruzada; na maioria dos casos, é bem-sucedido, apenas ficando bloqueado quando os dados são demasiado grandes ou quando há problemas com replication data. Esta tendência reduz drasticamente os custos de mão-de-obra, tornando a reprodução numa verificação geralmente executável, além de colocar desafios institucionais para a revisão pelos pares e para a governação; as ferramentas de governação por parte do governo ou tornar-se-ão numa questão fundamental.
ChainNewsAbmedia17h atrás