Tether 推出跨平台 BitNet LoRA 框架,用於在消費者設備上進行 AI 訓練

CryptoPulse Elite

Tether Launches Cross-Platform BitNet LoRA Framework for AI Training on Consumer Devices Tether的QVAC部門於2026年3月17日宣布推出全球首個適用於微軟BitNet模型(1位元LLMs)的跨平台LoRA微調框架,實現了在消費者GPU和智慧型手機上進行億參數AI訓練與推理。

該框架整合於QVAC Fabric中,降低了記憶體與計算需求,使在包括iPhone 16、Galaxy S25和Pixel 9在內的裝置上微調高達130億參數的模型成為可能,並且125M參數的模型在行動硬體上約10分鐘即可完成訓練。

此發布標誌著Tether從穩定幣發行商向更廣泛基礎設施提供者的戰略轉型的重要一步,挑戰由雲端供應商和專用NVIDIA硬體主導的集中式AI開發模式。

技術突破:Edge裝置上的BitNet LoRA

跨平台能力

QVAC Fabric框架實現了LoRA(低秩適應)微調與推理加速,適用於多種異構消費者硬體,包括:

桌面GPU:AMD、Intel與NVIDIA

Apple生態系:Apple Silicon M晶片與Bionic行動GPU

行動GPU:Adreno(Samsung)、Mali等

此廣泛相容性消除了過去對企業級NVIDIA系統或雲端基礎設施的需求,避免AI開發集中於擁有專業硬體預算的組織。

行動性能基準

Tether工程團隊展示了在旗艦智慧型手機上的成功微調,結果如下:

125M參數模型:在Samsung Galaxy S25(Adreno GPU)上,對約300份(約18K tokens)生物醫學資料集微調約10分鐘

1B參數模型:在Samsung S25上用時1小時18分鐘,在iPhone 16上用時1小時45分鐘

最大容量:在iPhone 16上成功微調高達130億參數的模型,遠超過一般子3B參數的邊緣裝置能力

推理性能提升

BitNet在行動GPU上的推理顯示出相較於CPU基準的顯著加速:

  • 速度提升:GPU性能比CPU快2到11倍(在測試裝置中)

  • 實務意義:行動GPU現已能支援先前需專用昂貴硬體或資料中心的工作負載

記憶體效率優勢

可量化的降低

基準測試顯示與傳統模型相比,記憶體節省顯著:

  • BitNet-1B(TQ1_0):比Gemma-3-1B(16位元)少用77.8%的VRAM

  • 與Qwen3-0.6B比較:比16位元版本少65.6%的VRAM

這些降低適用於推理與LoRA微調工作負載,為較大模型與個性化流程在先前被認為不足的硬體上提供了寶貴的記憶體空間。

架構優勢

該框架使在邊緣裝置上微調比Q4非BitNet模型大兩倍的模型成為可能,展現了BitNet架構的卓越記憶體效率。

策略意涵

去中心化AI開發

Tether CEO Paolo Ardoino將此發布置於更廣泛的可及性AI願景中:“智慧將是未來社會的重要決定因素。當訓練大型語言模型依賴集中式基礎設施時,創新會停滯不前,生態系統變得脆弱,社會平衡受到威脅。透過在包括智慧型手機在內的消費者硬體上進行有意義的大模型訓練,Tether的QVAC證明了先進AI可以去中心化、包容且賦能每個人。”

聯邦學習的實現

效率提升使得聯邦學習成為可能,允許在分散的裝置上訓練並分享微調更新,同時保持敏感用戶資料的本地化。這降低了對集中式基礎設施的依賴,並促進協作式模型改進。

資料隱私優勢

透過降低對雲端供應商的依賴,該框架使用戶在微調過程中能將敏感資料留在本地裝置,解決傳輸資料到集中伺服器的隱私疑慮。

競爭定位

挑戰科技巨頭的AI壕溝

Tether的發布直接挑戰由超大規模雲端供應商主導的集中式AI開發模式。透過在消費者硬體上實現有意義的AI工作,該公司定位自己為邊緣AI堆疊中的基礎設施角色,獨立於傳統雲端管轄。

開源分發

該框架(包括論文、適配器、基準測試與跨平台二進位檔)已在Hugging Face上公開。此開源策略旨在建立QVAC作為獨立開發者與小型實驗室在消費者硬體上部署AI的標準路徑,並在傳統監管框架之外建立文化與技術的相關性。

Tether的戰略轉型

此發布延續Tether從穩定幣發行商向關鍵數位基礎設施擴展的策略,繼之前的QVAC項目,包括410億代幣的Genesis I資料集與本地AI工作台。公司已表示將在“未來數週、數月與數年”持續投資去中心化AI基礎設施。

技術資源

完整技術文件,包括性能基準、實作細節與跨平台二進位檔,請參閱Hugging Face部落格:「在異構邊緣GPU上透過QVAC Fabric進行LoRA微調BitNet b1.58 LLMs」。

關於Tether

Tether描述其使命為透過科技推動自由、透明與創新,促進點對點資訊交流,無需不必要的中介。公司旨在用去中心化基礎設施取代集中式模型,強調隱私、效率與韌性。

常見問題

Tether的新AI框架可以在哪些硬體上運行?

QVAC Fabric BitNet LoRA框架支援來自AMD、Intel與NVIDIA的消費者GPU;Apple的生態系,包括Silicon M晶片與Bionic行動GPU;以及行動GPU如Adreno(Samsung)、Mali等。這使得在筆記型電腦、桌上型電腦與旗艦智慧型手機上微調AI成為可能,無需專用企業硬體。

行動GPU推理速度比CPU快多少?

根據Tether的基準測試,旗艦行動裝置上的GPU推理速度比CPU快2到11倍。記憶體用量較傳統模型降低最多77.8%,使得在相同硬體限制下能運行更大模型。

在手機上微調13B參數模型有何意義?

在智慧型手機上微調一個130億參數的模型,代表從傳統的子3B參數模型或將較重工作負載轉移到雲端的示範,邁向一個重大轉變。這預示著未來可以在本地進行嚴肅的模型個性化與領域適應,無需將用戶資料傳送到集中伺服器。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言