テザーのQVAC部門は2026年3月17日に、MicrosoftのBitNetモデル(1ビットLLMs)向けの世界初のクロスプラットフォームLoRA微調整フレームワークのリリースを発表しました。これにより、消費者向けGPUやスマートフォン上での数十億パラメータのAIのトレーニングと推論が可能になります。
このフレームワークは、QVAC Fabricに統合されており、メモリと計算要件を大幅に削減し、iPhone 16、Galaxy S25、Pixel 9などのデバイス上で最大13億パラメータのモデルの微調整を実現します。125Mパラメータのモデルは、モバイルハードウェア上で約10分でトレーニング可能です。
このリリースは、テザーが安定コイン発行者からより広範なインフラ提供者へと戦略的に転換する重要な一歩であり、クラウドプロバイダーやNVIDIAの特殊ハードウェアに支配された中央集権的なAI開発モデルに挑戦しています。
QVAC Fabricフレームワークは、異種の消費者ハードウェア全体でLoRA(Low-Rank Adaptation)の微調整と推論加速を可能にします:
デスクトップGPU:AMD、Intel、NVIDIA
Appleエコシステム:Apple Silicon MチップとBionicモバイルGPU
モバイルGPU:Adreno(サムスン)、Maliなど
これにより、従来必要とされていたエンタープライズグレードのNVIDIAシステムやクラウドインフラの要件が排除され、ハードウェア予算の制約を超えたAI開発が可能となります。
テザーのエンジニアチームは、フラッグシップスマートフォンでの微調整に成功し、以下の結果を示しました:
125Mパラメータモデル:Samsung Galaxy S25(Adreno GPU)上で、約10分で~300ドキュメント(~18,000トークン)の生物医学データセットの微調整完了
1Bパラメータモデル:同じ生物医学データの微調整に、Samsung S25で1時間18分、iPhone 16で1時間45分
最大容量:最大13億パラメータのモデルをiPhone 16上で微調整に成功し、エッジデバイスの能力を従来の3B未満のモデルを超えるレベルに引き上げました。
BitNetの推論は、モバイルGPUでの性能向上を示し、CPUと比較して大幅な加速を実現しています:
速度向上:テストしたデバイスでGPUはCPUの2倍から11倍の速度
実用的な意味合い:モバイルGPUは、従来高価な特殊ハードウェアやデータセンターを必要としたワークロードをサポート可能に
ベンチマークは、従来のモデルと比較して大きなメモリ節約を示しています:
BitNet-1B(TQ1_0):Gemma-3-1B(16ビット)より最大77.8%少ないVRAM使用
Qwen3-0.6Bと比較して:16ビット版より65.6%少ないVRAM
これらの削減は、推論とLoRA微調整の両方に適用され、以前は不十分と考えられていたハードウェア上でもより大きなモデルやパーソナライズ作業のためのメモリ空き容量を生み出します。
このフレームワークは、Q4非BitNetモデルと比較して、エッジデバイス上で2倍大きなモデルの微調整を可能にし、BitNetアーキテクチャの優れたメモリ効率を示しています。
テザーCEOのパオロ・アルドイノは、リリースをより広いビジョンの一環として位置付け、「知能は社会の未来を決定づける重要な要素となる。大規模言語モデルのトレーニングが中央集権的インフラに依存していると、イノベーションは停滞し、エコシステムは脆弱になり、社会の均衡が危険にさらされる。スマートフォンを含む消費者ハードウェア上で意味のある大規模モデルのトレーニングを可能にすることで、テザーのQVACは、先進的なAIを分散化し、誰もが参加できるものにできると証明している」と述べています。
効率向上により、フェデレーテッドラーニングが実現可能となり、微調整されたアップデートを分散したデバイス間でトレーニング・共有でき、敏感なユーザーデータをローカルに保持しながら協調的なモデル改善を促進します。
クラウドプロバイダーへの依存を減らすことで、微調整中に敏感なデータをローカルに保持でき、中央サーバーへのデータ送信に伴うプライバシー懸念に対処します。
テザーのリリースは、ハイパースケーラーやクラウドプロバイダーが支配する中央集権的AI開発モデルに直接挑戦します。消費者ハードウェア上で意味のあるAI作業を可能にすることで、同社はエッジAIスタックのインフラプレイヤーとして位置付けられ、従来のクラウド支配から独立しています。
このフレームワーク(論文、アダプター、ベンチマーク、クロスプラットフォームバイナリを含む)は、Hugging Faceで公開されています。このオープンソースのアプローチは、独立系開発者や小規模ラボが消費者ハードウェア上でAIを展開するための標準的な道筋として、文化的・技術的な重要性を築くことを目的としています。
このリリースは、安定コイン発行から重要なデジタルインフラへと拡大するテザーの戦略を継続し、過去のQVACイニシアチブ(410億トークンのGenesis IデータセットやローカルAIワークベンチなど)に続き、今後数週間、数ヶ月、数年にわたり分散型AIインフラへの投資を示しています。
パフォーマンスベンチマーク、実装詳細、クロスプラットフォームバイナリを含む完全な技術ドキュメントは、Hugging Faceブログ「LoRA Fine-Tuning BitNet b1.58 LLMs on Heterogeneous Edge GPUs via QVAC Fabric」にて公開中です。
テザーは、技術を通じて自由、透明性、革新を推進し、不要な仲介者を排除したピアツーピアの情報交換を可能にすることを使命としています。同社は、プライバシー、効率性、耐性を重視した分散型インフラにより、中央集権モデルの置き換えを目指しています。
QVAC FabricのBitNet LoRAフレームワークは、AMD、Intel、NVIDIAの消費者向けGPU、AppleのSilicon MチップとBionicモバイルGPU、Adreno(サムスン)、MaliなどのモバイルGPUをサポートし、ノートパソコン、デスクトップ、フラッグシップスマートフォンでのAI微調整を可能にします。
テザーのベンチマークによると、フラッグシップモバイルデバイスでのGPU推論は、CPUの2倍から11倍の速度で動作します。従来モデルと比較してメモリ使用量は最大77.8%削減され、より大きなモデルの実行が可能です。
13億パラメータのモデルをスマートフォンで微調整することは、従来のサブ3Bパラメータモデルやクラウドに重い作業をオフロードする従来のデモから一歩進んだ変革です。この能力は、ユーザーデータを中央サーバーに送信せずに、ローカルでのモデルパーソナライズやドメイン適応が可能な未来を示唆しています。