根據媒體報導,字節跳動將其計劃在 2026 年的 AI 基礎設施支出提高 25%,至 2,000 億人民幣;隨著記憶體晶片成本上升,公司加速部署人工智慧。
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見
聲明。
相關文章
Google 導入試行徵才考試,讓工程師可使用 AI 工具
根據《朝鮮日報》(The Chosun Daily),Google 正在試行一種招聘考試,讓美國的軟體工程師應試者在特定的初階與中階職位中可使用 AI 工具。該試驗包含程式碼理解任務,應徵者需要檢視既有程式碼、修正錯誤並提升效能。面試官將評估候選人如何提示 AI、檢查其輸出、編輯結果並除錯程式碼,而非僅評量其從零開始撰寫程式碼的能力。
GateNews1小時前
OpenAI 立即終止微調 API,現有用戶可使用至 2027 年 1 月 6 日
根據 Beating 監控到的 OpenAI 官方公告,該公司將即日起停止其面向開發者的自助式微調 API。新使用者將不再能夠建立微調任務,而現有的活躍使用者則可在 2027 年 1 月 6 日之前繼續存取該服務。已部署的微調模型,其推論服務將與其基礎模型的生命週期綁定;當基礎模型下架時,推論服務也將停止。 OpenAI 表示,其新的基礎模型(例如 GPT-5.5)在遵循指令與格式化方面已足夠強大。該公司指出,將提示工程與檢索增強生成(Retrieval-Augmented Generation,RAG)結合使用,比微調更便宜、更快速,且足以滿足多數使用情境。
GateNews2小時前
Sakana AI 與 Nvidia 透過跳過 80% 的無效運算,使 H100 推論速度提升 30% 更快
Sakana AI 和 Nvidia 已開源 TwELL,這是一種稀疏資料格式,可讓 H100 GPU 在大型語言模型中跳過 80% 的無效運算,同時不犧牲準確性。該解決方案在 H100 上可提供最高 30% 更快的推論速度,以及 24% 更快的訓練速度,同時降低峰值記憶體使用量。在 1.5 十億參數模型的測試中,透過訓練期間使用輕量化正則化,該方法將作用中的神經元降至低於 2%,且在七項下游任務中沒有出現效能退化。
GateNews3小時前
Microsoft 將 Phi-Ground 4B 模型開源,表現優於 OpenAI Operator 與 Claude 的點擊螢幕準確率
根據 Beating,Microsoft 最近開源了 Phi-Ground 模型家族,該家族旨在解決「AI 應該在電腦螢幕的哪裡點擊」這個問題。這個 40 億參數版本,並搭配用於指令規劃的大型語言模型,在 Showdown 基準測試中超越了 OpenAI Operator 與 Claude Computer Use 的點擊精度,並在包含 ScreenSpot-Pro 的五項評估中,於所有低於 100 億參數的模型中排名第一。 團隊以超過 4,000 萬筆資料樣本進行訓練,並發現學術論文中常用的三種訓練技術在規模化後變得無效。關鍵方法證實其實很簡單:輸出座標作為一般數字,例如「523, 417」。先前的研究為座標發明了專用位置詞彙,但這些方法無法擴展到更大規模。團隊也發現,將文字指令放在影像之前能提升效能,因為模型在處理像素時就能辨識目標。此外,像 DPO 這類強化學習方法,即使在微調之後也能提升準確度。
GateNews4小時前
Tilde Research 發現 Muon Optimizer 會殺死 25% 的神經元;Aurora 替代方案實現 100 倍的資料效率提升
根據 Tilde Research,DeepSeek V4 與 Kimi K2.5 等領先 AI 模型採用的 Muon 優化器存在隱藏缺陷:它會導致在早期訓練期間,MLP 層的神經元中超過 25% 永久死亡。團隊設計了 Aurora,這是一種替代優化器,並將其開源。參數量 11 億的模型僅用 1000 億 tokens 訓練,就在 HellaSwag 與 Winogrande 等語言理解基準上達到了與在 36T tokens 上訓練的 Qwen3-1.7B 相當的表現,顯示資料效率大約提升了 100 倍。Aurora 相較於 Muon 會增加 6% 的計算開銷,且可作為直接替代方案。
GateNews4小時前
Nvidia 於 2026 年初承諾投資超過 400 億美元於 AI,包括 300 億美元投資 OpenAI
根據 TechCrunch,Nvidia 在 2026 年前幾個月承諾投入超過 400 億美元於 AI 公司股權投資,其中對 OpenAI 的 300 億美元投資是單一最大承諾。這家晶片製造商也承諾最高 32 億美元投資玻璃製造商 Corning,並投資至多 21 億美元給資料中心營運商 IREN,其中包括一份為期五年的認股權證,以及一份價值 34 億美元、用於採用 Nvidia Blackwell 系統的託管 GPU 雲端服務的獨立合約。根據 FactSet 數據,Nvidia 今年宣布了對上市公司進行七項數十億美元級別的投資,同時也參與了約兩打(約 24 次)私營新創公司的募資輪次。
GateNews7小時前