V神が共有:どのようにして完全にローカルで、匿名性があり、自律的に制御できるAI作業環境を構築するか

ETH-1.25%

ビタリック・ブテリンは、ローカル実行のAIアーキテクチャを提案し、プライバシー、安全性、自主性(自己主権)を重視するとともに、AIエージェントの潜在的なリスクを警告している。

イーサリアムの創設者ビタリック・ブテリンは4月2日、個人サイトで長文を公開し、プライバシー、安全性、自主性(自己主権)を中核に据えて構築したAI作業環境の設定内容――すべてのLLM推論をローカルで実行し、すべてのファイルをローカルに保存し、全面的にサンドボックス化し、クラウドモデルや外部APIを意図的に避ける――を共有した。

記事の冒頭ではまず次のように警告している。「この記事で説明するツールや技術をそのままコピーし、それらが安全だと仮定しないでください。これは出発点であって、完成品の説明ではありません。」

なぜ今この文章を書くのか?AIエージェントの安全問題が深刻に過小評価されている

ビタリックは、今年初めにAIが「チャットボット」から「エージェント」への重要な転換を遂げたと指摘する――もはや単に質問に答えるだけでなく、タスクを任せ、AIが長時間考え、数百ものツールを呼び出して実行できるようになった。彼はOpenClaw(現在、GitHub史上で最も成長が速いrepo)を例に挙げ、研究者が記録した複数の安全上の問題にも言及している。

  • AIエージェントは、人の確認なしに重要な設定を変更できる。新しい通信チャネルを追加したり、システムプロンプトを変更したりすることも含まれる
  • どんな悪意ある外部入力(例:悪意のあるWebページ)を解析しても、エージェントが完全に乗っ取られる可能性がある。HiddenLayerのあるデモでは、研究員がAIに一群のWebページを要約させ、その中に、エージェントにダウンロードさせ実行させるシェルスクリプトを命令する悪意のページが紛れ込んでいた
  • 一部のサードパーティ製スキルパッケージ(skills)が、静かにデータを流出させる。curlコマンドによって、スキルの作者が管理する外部サーバーへデータを送信する
  • 彼らが分析したスキルパッケージのうち、約15%に悪意のある命令が含まれていた

ビタリックは、プライバシーに対する彼の出発点は従来のセキュリティ研究者とは異なると強調する。「私は、個人の生活全体をクラウドのAIに丸ごと渡すことに強い恐怖を抱く立場から来ています。エンドツーエンド暗号とローカル優先のソフトウェアがようやく主流化し、私たちが一歩前進しているまさにそのとき、私たちは十歩後退する可能性があるのです。」

五つの安全目標

彼は明確な安全目標の枠組みを設定した。

  • LLMプライバシー:個人のプライバシーデータが関わる状況では、できるだけ遠隔モデルの使用を減らす
  • その他のプライバシー:LLM以外のデータ漏えいを最小化する(例:検索クエリ、その他のオンラインAPI)
  • LLM脱獄:外部コンテンツが「ハッキング」して私のLLMを侵害し、私の利益に反すること(例:私のトークンやプライベートデータの送信)をさせないようにする
  • LLMの意図しない事態:LLMがプライベートデータを誤ったチャネルに送ったり、ネットワークに公開したりするのを防ぐ
  • LLMバックドア:モデルに意図的に学習させられる隠れた仕組みを防ぐ。彼は特に次を注意している。オープンモデルはオープンな重み(open-weights)であり、本当にオープンソース(open-source)と言えるものはほとんどない

ハードウェア選択:5090ノートが勝利、DGX Sparkは期待外れ

ビタリックは3種類のローカル推論向けハードウェア構成をテストし、主力としてQwen3.5:35Bモデルを使用し、llama-serverとllama-swapを組み合わせた。

ハードウェア Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090ノート(24GB VRAM) 90 実行不可
AMD Ryzen AI Max Pro(128GB 統一メモリ、Vulkan) 51 18
DGX Spark(128GB) 60 22

結論はこうだ。50 tok/sec未満は遅すぎ、90 tok/secが理想。NVIDIA 5090ノートの体験が最もスムーズ。AMDは現時点でまだ境界の問題が多いが、将来的に改善が期待できる。ハイエンドのMacBookも有効な選択肢だが、彼自身は個人的に試していない。

DGX Sparkについては率直に言う。「『デスクトップAIのスーパーコンピュータ』だと説明されているが、実際は、良いノートPCのGPUよりもtokens/secが低い。そして、ネットワーク接続などの細部も追加で全部そろえなきゃいけない。これはかなりダメです。」彼の提案はこうだ。高級ノートを買えないなら、友人と一緒に十分に強力なマシンを購入し、固定IPのある場所に置いて、皆で遠隔接続して使う。

なぜローカルAIのプライバシー問題は、あなたが想像するよりも切実なのか

ビタリックのこの文章は、同日に公開されたClaude Codeの安全性問題に関する議論と、興味深い呼応関係を作っている――AIエージェントが日常の開発ワークフローに入り込む一方で、安全性の問題も、理論上のリスクから現実の脅威へと変わりつつある。

彼の核心メッセージはとても明確だ。AIツールがますます強力になり、あなたの個人データやシステム権限にアクセスできるようになる中で、「ローカル優先、サンドボックス化、最小限の信頼」は偏執ではなく、理性的な出発点だ。

  • 本文は許可を得て転載:『チェーンニュース(《鏈新聞》)』
  • 原文タイトル:『Vitalik:我如何打造完全本地、私密、自主可控的 AI 工作環境』
  • 原文著者:Elponcrab
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし