芬蘭 AI 實驗室 QuTwo 完成 $29M 種子輪融資,估值為 $380M ;創辦人先前的公司 Silo AI 已以 6.65 億美元出售給 AMD

根據 Beating,芬蘭 AI 實驗室 QuTwo 已完成一輪 2500 萬歐元(約 2900 萬美元)的種子輪,投後估值為 3.25 億歐元(約 3.8 億美元)。創辦人兼執行董事長 Peter Sarlin 先前曾創立 Silo AI,該公司在 2024 年被 AMD 以 6.65 億美元收購。

QuTwo OS 是一個運算協同編排層,會將任務分散到傳統晶片、量子處理器或混合架構之上。該公司已取得約 2000 萬歐元的合約收入,客戶包括零售商 Zalando 與 OP Financial Group,後者是芬蘭最大的金融服務提供商。種子輪投資人包括 DST Global 創辦人 Yuri Milner、Skype 共同創辦人 Niklas Zennström,以及 Supercell、Wolt 和 Miro 的創辦人。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

Anthropic Code Mode 解 MCP Vs CLI 之爭:工具住 Runtime、tokens 從 150K 壓到 2K

本文梳理 2025 年 MCP 與 CLI 的爭論,引用 Anthropic 的 Code Mode:改變工具呼叫的角色定位,讓模型寫程式碼並由 runtime 呼叫工具,工具細節在 runtime,型別與 API 透過 import 自動對齊。這樣把 token 從 150K 壓到約 2K,顯著提升效能與可擴展性;雖然 MCP 並未死,核心教訓是避免在 session context 一次性載入所有工具,讓 runtime 處理細節。

鏈新聞abmedia1小時前

字節跳動計劃今年在 AI 基礎設施支出上增加 25%,達 2000 億人民幣

根據 ChainCatcher 引述 Golden Data 的說法,字節跳動計劃在今年將 AI 基礎設施支出提高 25%,至 2000 億人民幣,推動因素包括記憶體晶片成本上升以及人工智慧發展加速。

GateNews2小時前

企業級 AI 平台 Pit 關閉 $16M 期融資,由 a16z 領投

根據 Odaily,企業級 AI 平台 Pit 宣布完成一輪 1,600 萬美元的融資,由 a16z 領投,Lakestar 參與,並有來自 OpenAI、Anthropic、Google、Deel 和 Revolut 的高管加入。Pit 將自己定位為「AI 產品團隊作為服務」(AI product team as a service),旨在取代傳統試算表以及僵化的 SaaS 系統。

GateNews2小時前

Google 導入試行徵才考試,讓工程師可使用 AI 工具

根據《朝鮮日報》(The Chosun Daily),Google 正在試行一種招聘考試,讓美國的軟體工程師應試者在特定的初階與中階職位中可使用 AI 工具。該試驗包含程式碼理解任務,應徵者需要檢視既有程式碼、修正錯誤並提升效能。面試官將評估候選人如何提示 AI、檢查其輸出、編輯結果並除錯程式碼,而非僅評量其從零開始撰寫程式碼的能力。

GateNews4小時前

OpenAI 立即終止微調 API,現有用戶可使用至 2027 年 1 月 6 日

根據 Beating 監控到的 OpenAI 官方公告,該公司將即日起停止其面向開發者的自助式微調 API。新使用者將不再能夠建立微調任務,而現有的活躍使用者則可在 2027 年 1 月 6 日之前繼續存取該服務。已部署的微調模型,其推論服務將與其基礎模型的生命週期綁定;當基礎模型下架時,推論服務也將停止。 OpenAI 表示,其新的基礎模型(例如 GPT-5.5)在遵循指令與格式化方面已足夠強大。該公司指出,將提示工程與檢索增強生成(Retrieval-Augmented Generation,RAG)結合使用,比微調更便宜、更快速,且足以滿足多數使用情境。

GateNews4小時前

Sakana AI 與 Nvidia 透過跳過 80% 的無效運算,使 H100 推論速度提升 30% 更快

Sakana AI 和 Nvidia 已開源 TwELL,這是一種稀疏資料格式,可讓 H100 GPU 在大型語言模型中跳過 80% 的無效運算,同時不犧牲準確性。該解決方案在 H100 上可提供最高 30% 更快的推論速度,以及 24% 更快的訓練速度,同時降低峰值記憶體使用量。在 1.5 十億參數模型的測試中,透過訓練期間使用輕量化正則化,該方法將作用中的神經元降至低於 2%,且在七項下游任務中沒有出現效能退化。

GateNews5小時前
留言
0/400
挣够十亿油vip
· 05-07 10:32
就冲就完了 👊
查看原文回復0
挣够十亿油vip
· 05-07 10:32
快上車!🚗
查看原文回復0