根據 Ollama 官方 4 月 27 日推文,由中國 AI 公司 DeepSeek 於 4 月 24 日發布的旗艦模型 DeepSeek V4 Pro,正式以雲端模式進駐 Ollama 官方目錄,使用者只需一行指令即可從 Claude Code、Hermes Agent、OpenClaw、Codex、OpenCode 等主流 agent 工具呼叫該模型。這是 Ollama 整合主流大模型最快速的一次同步—從 DeepSeek 釋出權重到 Ollama Cloud 上線,僅相隔三天。
DeepSeek V4 Pro:1.6T 參數、1M context
V4 Pro 採 Mixture-of-Experts 架構,總參數規模 1.6 兆(49 億活躍參數),上下文窗口 1M token。第三方基準 Artificial Analysis 指出,V4 Pro 在 SWE-bench(80.6%)、LiveCodeBench(93.5%)、Terminal-Bench(67.9%)等程式編寫基準上與 Kimi K2.6 並列開源模型前段班,整體 Intelligence Index 落後 Kimi K2.6 一個身位。
同期 DeepSeek 也釋出較輕量的 V4 Flash 模型,兩者皆採 MIT 授權開源,可從 Hugging Face 下載權重。
Ollama Cloud 雲端推論、權重不下載本機
deepseek-v4-pro:cloud 為 Ollama Cloud 模型—推論在 Ollama 雲端進行、權重不下載到使用者本機。這是 Ollama 處理超大模型的標準作法,先前 Kimi K2.6 也採同樣方式收錄。對使用者而言,最大優勢是不需自備數十張 GPU 即可呼叫旗艦級模型;缺點是仍需網路連線,並依 Ollama 雲端負載分配運算資源。
若要完全本地執行,須自 Hugging Face 取得 deepseek-ai/DeepSeek-V4-Pro 權重,搭配 INT4 量化版本(如 Unsloth 釋出的 GGUF)與多卡 GPU 配置才有可行性。一般消費級硬體不足以承載完整模型。
一行指令串接 Claude Code、Hermes Agent、OpenClaw
Ollama 同步釋出對主流 agent 工具的整合 launcher 指令:
直接對話 ollama run deepseek-v4-pro:cloud # 串接 Claude Code ollama launch claude --model deepseek-v4-pro:cloud # 串接 Hermes Agent ollama launch hermes --model deepseek-v4-pro:cloud # 串接 OpenClaw / OpenCode / Codex ollama launch openclaw --model deepseek-v4-pro:cloud ollama launch opencode --model deepseek-v4-pro:cloud ollama launch codex --model deepseek-v4-pro:cloud
意義在於:開發者過去在 Claude Code 內若想換用 DeepSeek,需透過 OpenAI 相容 API 自行串接、處理 endpoint 與認證;現在透過 Ollama 一行指令即可完成。對 Claude Code 重度使用者而言,這提供了一條把 Anthropic 模型替換為 DeepSeek(或同理可換 Kimi)以降低成本的快速路徑。
早期測試者反應:速度從 30 tok/s 到尖峰 1.1 tok/s
推文下方社群討論顯示,雲端推論的速度視 Ollama 雲端負載而異。多位早期測試者回報尖峰時段速度偏慢,從常態 30 tokens/s 降至 1.1 tokens/s 級別,使用者 @benvargas 直接貼出截圖抱怨「Need More Compute」。Ollama 在另一條回覆中坦承官方團隊「也在玩這個模型」,意指流量仍處於探索期,尚未做完整的容量規劃。
對追求穩定產線速度的開發者,目前的建議是:用雲端模式作為原型測試與成本評估,正式產品仍需自建 GPU 推論設施或選擇商用 API。Ollama 完整教學已同步補上 V4 Pro 條目與雲端/本地的取捨說明。
這篇文章 DeepSeek V4 Pro 上 Ollama Cloud:Claude Code 一鍵串接 最早出現於 鏈新聞 ABMedia。
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見
聲明。
相關文章
Gate 將於 4 月 28 日舉辦 AI 交易 Space 圓桌:探索 AI 作為下一個 Web3 週期推動者
Gate 新聞訊息,4 月 27 日—Gate 將於 4 月 28 日晚上 8 點舉辦一場關於 AI 交易的線上 Space 圓桌討論,邀請業界專家齊聚一堂,探討 AI 與交易工作流程的深度整合,是否正是下一個 Web3 週期的真正起點。
此次討論將審視 AI 基礎設施的演進、交易架構的轉型,以及財務理念的轉變。與會嘉賓將分析 AI 如何從獨立的分析工具,逐步過渡到核心交易樞紐,進而從根本上重塑金融市場的競局格局。
如要參與,使用者應關注 @sunpumpmeme 與 @Agent_SunGenX,轉推活動貼文,並標記三位好友。將隨機抽出 5 位幸運參與者,每人可獲得 10 USDT。
GateNews1小時前
螞蟻集團推出 Ling-2.6-1T:為以 token 為導向的任務執行進行優化的萬億參數模型
Gate News 訊息,4 月 27 日——螞蟻集團的 inclusionAI 已發布 Ling-2.6-1T,這是一款全新的萬億參數旗艦指令模型,屬於 Ling 系列。與長鏈推理模型不同,Ling-2.6-1T 採用「快思考」機制,旨在以最少 token 消耗實現精準任務執行
GateNews1小時前
Nansen API 現已支援 Tempo 的 MPP 協定,讓 AI 代理可逐次呼叫付款
Gate 新聞訊息,4 月 27 日——Nansen API 現已支援機器付款協定 (MPP),這是一種用於自主機器對機器付款的標準,由 Tempo 和 Stripe 提供支援。此整合使 AI 代理可在每次呼叫的情況下,直接從其錢包付款。
該功能與現有
GateNews2小時前
OpenAI 的 Greg Brockman:AI 正從聊天轉向自主任務執行
Gate News 訊息,4 月 27 日——OpenAI 總裁兼共同創辦人 Greg Brockman 表示,新一波人工智慧將把使用者從與 AI 機器人聊天,轉向指派現實世界的任務。這種轉變要求企業重新思考作業流程,並建立新的安全、管理與成本協議,
GateNews3小時前
大型 CEX 推出 Smart Money Signal Suite,整合 1,000+ 位交易者資料
Gate News 訊息,4 月 27 日 — 一家大型集中式交易所推出了「Smart Money Signal Suite」,該方案整合了來自超過 1,000 位熱門交易者的即時持倉、勝率以及損益資料。該工具包可透過平台的 Agent Trade Kit 存取,並將交易者訊號封裝為
GateNews3小時前
B.AI 升級基礎設施,推出重點技能功能
Gate 新聞訊息,4月27日——B.AI 本週宣布多項產品與生態系進展。本次 BAIclaw 登陸頁面進行了完整的視覺與互動改版,並將網站多語言支援擴展至 10 種語言,進一步強化其全球可用性。
在基礎設施方面
GateNews3小時前