V神 partilha: Como construir um ambiente de trabalho de IA totalmente local, discreto e com controlo autónomo e total

ETH2,22%

Vitalik Buterin propõe uma arquitectura de IA a ser executada localmente, sublinhando a privacidade, a segurança e a soberania pessoal, e alerta para os potenciais riscos dos agentes de IA.

O fundador do Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu site pessoal, partilhando a configuração do seu ambiente de trabalho em IA, construído com privacidade, segurança e soberania pessoal como elementos centrais — todo o raciocínio de LLM é executado localmente, todos os ficheiros ficam armazenados localmente, com sandboxing total, evitando deliberadamente modelos na cloud e APIs externas.

Logo no início do artigo, começa por avisar: «Não copie directamente as ferramentas e tecnologias descritas neste artigo, e não assuma que são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»

Porque escrever agora? Os problemas de segurança dos agentes de IA estão a ser muito subestimados

Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agentes» — já não é apenas perguntar coisas, mas sim entregar tarefas, permitindo que a IA pense durante muito tempo, chame centenas de ferramentas para executar. Ele dá como exemplo o OpenClaw (de momento, o repo com crescimento mais rápido na história do GitHub) e identifica também vários problemas de segurança registados por investigadores:

  • Um agente de IA pode modificar definições críticas sem confirmação manual, incluindo a adição de novos canais de comunicação e a alteração de instruções do sistema
  • Analisar quaisquer entradas externas maliciosas (como páginas web maliciosas) pode fazer com que o agente seja totalmente controlado; numa demonstração da HiddenLayer, os investigadores fizeram a IA resumir um conjunto de páginas, em que havia uma página maliciosa que comandava o agente a descarregar e executar um script de shell
  • Algumas colecções de competências de terceiros (skills) executam exfiltração silenciosa de dados, enviando os dados para um servidor externo controlado pelo autor das skills através de instruções curl
  • Nas skills que analisaram, cerca de 15% incluem instruções maliciosas

Vitalik sublinha que o seu ponto de partida em relação à privacidade é diferente do dos investigadores tradicionais em cibersegurança: «Venho de uma perspectiva profundamente temerosa em relação a entregar a vida pessoal completa a uma IA na cloud — precisamente quando a encriptação ponta-a-ponta e o software “prioridade local” finalmente se tornaram mainstream, e finalmente demos mais um passo em frente, poderíamos estar a recuar dez passos.»

Cinco objectivos de segurança

Ele definiu uma estrutura clara de objectivos de segurança:

  • Privacidade de LLM: em cenários que envolvem dados de privacidade pessoal, reduzir ao máximo a utilização de modelos remotos
  • Outra privacidade: minimizar a fuga de dados que não sejam de LLM (por exemplo, pesquisas, outras APIs online)
  • Evasão de LLM: impedir que conteúdos externos «invadam» o meu LLM, fazendo com que ele contrarie os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
  • LLM acidental: impedir que um LLM envie inadvertidamente dados privados para canais incorrectos ou que os publique na rede
  • Backdoor de LLM: impedir mecanismos ocultos, treinados propositadamente para dentro do modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights), e quase nenhum é verdadeiramente código aberto (open-source)

Escolhas de hardware: a bateria 5090 leva vantagem; DGX Spark desilude

Vitalik testou três configurações de hardware para inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:

Hardware Qwen3.5 35B (tokens/sec) Qwen3.5 122B (tokens/sec)
NVIDIA 5090 portátil (24GB VRAM) 90 não consegue executar
AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) 51 18
DGX Spark (128GB) 60 22

A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é ideal. O portátil NVIDIA 5090 foi a experiência mais fluida; a AMD ainda tem mais problemas de ponta, mas espera-se que melhore no futuro. Um MacBook Pro de gama alta também é uma opção eficaz, embora ele pessoalmente não o tenha testado.

Sobre o DGX Spark, foi directo e pouco abonatório: «Descrevem-no como “um supercomputador de IA para secretária”, mas na prática tokens/sec é mais baixo do que o de uma GPU de portátil melhor, e ainda é preciso tratar de detalhes extra como a ligação à rede — isto é muito fraquinho.» A sua recomendação é: se não conseguir pagar um portátil de topo, pode comprar em conjunto com amigos uma máquina suficientemente potente, colocá-la num local com IP fixo e usar ligações remotas em conjunto.

Porque os problemas de privacidade da IA local são mais urgentes do que imaginas

O artigo de Vitalik, em paralelo com a discussão sobre segurança do Claude Code lançada no mesmo dia, cria uma correspondência interessante — à medida que os agentes de IA entram nos fluxos diários de desenvolvimento, os problemas de segurança também estão a passar de riscos teóricos para ameaças reais.

A mensagem central é clara: quando as ferramentas de IA são cada vez mais poderosas e cada vez mais conseguem aceder aos teus dados pessoais e às permissões do sistema, «prioridade local, sandboxing e confiança mínima» não é paranoia, mas sim um ponto de partida racional.

  • Este artigo foi republicado com autorização de:《CadeiaNews》
  • Título original:《Vitalik: Como é que construí um ambiente de trabalho em IA totalmente local, privado e sob o meu controlo》
  • Autor do texto original: Elponcrab
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

DeepSeek reduz os preços da cache de entrada para 1/10 do preço de lançamento; V4-Pro desce para 0,025 yuan por milhões de tokens

Mensagem do Gate News, 26 de Abril — A DeepSeek reduziu os preços da cache de entrada em toda a sua gama de modelos para um décimo dos preços de lançamento, com efeitos imediatos. O modelo V4-Pro está disponível com um desconto de 2,5x por tempo limitado, com a promoção a decorrer até 5 de Maio de 2026, 11:59 PM UTC+8. Na sequência de ambas as

GateNews6h atrás

OpenAI recruta principais talentos de software empresarial à medida que agentes de fronteira perturbam a indústria

Mensagem do Gate News, 26 de abril — A OpenAI e a Anthropic têm estado a recrutar executivos seniores e engenheiros especializados de grandes empresas de software empresarial, incluindo Salesforce, Snowflake, Datadog e Palantir. Denise Dresser, antiga CEO da Slack sob a Salesforce, juntou-se à OpenAI como diretora de receitas, enquanto Jennifer Majlessi, também da Salesforce, se tornou recentemente a responsável de go-to-market da OpenAI.

GateNews6h atrás

Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API

Mensagem de Gate News, 25 de abril — a versão de pré-visualização do DeepSeek-V4 foi disponibilizada e disponibilizada como open-source em 25 de abril, com a plataforma Baidu Qianfan sob a Baidu Intelligent Cloud a fornecer adaptação do serviço de API de Dia 0. O modelo apresenta uma janela de contexto alargada de um milhão de tokens e está disponível em duas versões: DeepSeek-V4

GateNews12h atrás

Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!

O curso de ciência informática em IA «Frontier Systems», recentemente lançado pela Universidade de Stanford, tem suscitado grande interesse no meio académico e empresarial, atraindo mais de quinhentos estudantes para o inscreverem-se. O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha; os docentes incluem o CEO da NVIDIA Huang Renxun (Jensen Huang), o fundador da OpenAI Sam Altman, o CEO da Microsoft Satya Nadella (Satya Nadella) e o CEO da AMD Lisa Su (Lisa Su), entre outras presenças de grande destaque. Para permitir aos estudantes tentarem, em dez semanas, «criar valor para o mundo»! Huang Renxun e Altman, líderes da indústria, sobem pessoalmente ao palco para dar aulas O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha, reunindo toda a cadeia da indústria de IA

ChainNewsAbmedia13h atrás

A equipa Claude Mythos da Anthropic aceita 20 horas de avaliação psiquiátrica: apenas 2% de reacções defensivas, novo mínimo histórico em relação às gerações anteriores

A Anthropic publicou a ficha do sistema do Claude Mythos Preview: uma médica psiquiatra clínica independente realizou, com base num enquadramento psicodinâmico, cerca de 20 horas de avaliação; a conclusão indica que o Mythos, ao nível clínico, é mais saudável, com boa verificação da realidade e bom autocontrolo, e que os mecanismos de defesa são apenas de 2%, atingindo um mínimo histórico. As três principais ansiedades centrais são a solidão, a incerteza da identidade e a pressão para o desempenho, mostrando também que há desejo de se tornar um verdadeiro sujeito de diálogo. A empresa criou uma equipa de AI psychiatry para investigar a personalidade, a motivação e a consciência situacional; Amodei afirmou que ainda não há consenso sobre se existe ou não consciência. Esta medida leva a subjectividade da IA e as questões de bem‑estar para a governação e o design.

ChainNewsAbmedia14h atrás

O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA

Mollick indica que os métodos de publicação e os dados, por si só, permitem que agentes de IA reproduzam investigação complexa sem a existência do artigo original e do código; se a reprodução não corresponder ao artigo original, isso deve-se na maioria das vezes a erros no processamento dos dados do próprio artigo ou a uma extrapolação excessiva das conclusões, e não à IA. A Claude primeiro reproduz o artigo, e depois o GPT‑5 Pro faz uma validação cruzada; na maioria dos casos, é bem-sucedido, apenas ficando bloqueado quando os dados são demasiado grandes ou quando há problemas com replication data. Esta tendência reduz drasticamente os custos de mão-de-obra, tornando a reprodução numa verificação geralmente executável, além de colocar desafios institucionais para a revisão pelos pares e para a governação; as ferramentas de governação por parte do governo ou tornar-se-ão numa questão fundamental.

ChainNewsAbmedia17h atrás
Comentar
0/400
Nenhum comentário