ビタリック・ブテリンは、ローカル実行のAIアーキテクチャを提案し、プライバシー、安全性、自主性(自己主権)を重視するとともに、AIエージェントの潜在的なリスクを警告している。
イーサリアムの創設者ビタリック・ブテリンは4月2日、個人サイトで長文を公開し、プライバシー、安全性、自主性(自己主権)を中核に据えて構築したAI作業環境の設定内容――すべてのLLM推論をローカルで実行し、すべてのファイルをローカルに保存し、全面的にサンドボックス化し、クラウドモデルや外部APIを意図的に避ける――を共有した。
記事の冒頭ではまず次のように警告している。「この記事で説明するツールや技術をそのままコピーし、それらが安全だと仮定しないでください。これは出発点であって、完成品の説明ではありません。」
ビタリックは、今年初めにAIが「チャットボット」から「エージェント」への重要な転換を遂げたと指摘する――もはや単に質問に答えるだけでなく、タスクを任せ、AIが長時間考え、数百ものツールを呼び出して実行できるようになった。彼はOpenClaw(現在、GitHub史上で最も成長が速いrepo)を例に挙げ、研究者が記録した複数の安全上の問題にも言及している。
ビタリックは、プライバシーに対する彼の出発点は従来のセキュリティ研究者とは異なると強調する。「私は、個人の生活全体をクラウドのAIに丸ごと渡すことに強い恐怖を抱く立場から来ています。エンドツーエンド暗号とローカル優先のソフトウェアがようやく主流化し、私たちが一歩前進しているまさにそのとき、私たちは十歩後退する可能性があるのです。」
彼は明確な安全目標の枠組みを設定した。
ビタリックは3種類のローカル推論向けハードウェア構成をテストし、主力としてQwen3.5:35Bモデルを使用し、llama-serverとllama-swapを組み合わせた。
| ハードウェア | Qwen3.5 35B(tokens/sec) | Qwen3.5 122B(tokens/sec) |
|---|---|---|
| NVIDIA 5090ノート(24GB VRAM) | 90 | 実行不可 |
| AMD Ryzen AI Max Pro(128GB 統一メモリ、Vulkan) | 51 | 18 |
| DGX Spark(128GB) | 60 | 22 |
結論はこうだ。50 tok/sec未満は遅すぎ、90 tok/secが理想。NVIDIA 5090ノートの体験が最もスムーズ。AMDは現時点でまだ境界の問題が多いが、将来的に改善が期待できる。ハイエンドのMacBookも有効な選択肢だが、彼自身は個人的に試していない。
DGX Sparkについては率直に言う。「『デスクトップAIのスーパーコンピュータ』だと説明されているが、実際は、良いノートPCのGPUよりもtokens/secが低い。そして、ネットワーク接続などの細部も追加で全部そろえなきゃいけない。これはかなりダメです。」彼の提案はこうだ。高級ノートを買えないなら、友人と一緒に十分に強力なマシンを購入し、固定IPのある場所に置いて、皆で遠隔接続して使う。
ビタリックのこの文章は、同日に公開されたClaude Codeの安全性問題に関する議論と、興味深い呼応関係を作っている――AIエージェントが日常の開発ワークフローに入り込む一方で、安全性の問題も、理論上のリスクから現実の脅威へと変わりつつある。
彼の核心メッセージはとても明確だ。AIツールがますます強力になり、あなたの個人データやシステム権限にアクセスできるようになる中で、「ローカル優先、サンドボックス化、最小限の信頼」は偏執ではなく、理性的な出発点だ。