英伟达 ( NVIDIA ) 发布全球首款专为量子人工智能设计的开源模型「 NVIDIA Ising」,旨在解决量子处理器在扩展过程中面临的校准与纠错挑战。该系列模型以开源形式提供高性能工具,协助开发者,帮助研究机构与企业优化量子比特的运行效率。
NVIDIA Ising 缩短校准时程
量子处理器的运行稳定性高度依赖精确的校准流程。NVIDIA Ising 校准(Ising Calibration)模型采用视觉语言模型技术,能快速解读量子处理器的测量数据并做出响应。这项技术使人工智能代理得以自动执行持续性的校准任务,将传统流程缩短至数小时。包括台湾中央研究院、费米国家加速器实验室以及哈佛大学在内的多个研究机构,已开始采用此技术以提升量子硬件的自动化维护效率,降低人工成本。
卷积神经网络加速纠错解码
NVIDIA 创始人兼执行长黄仁勋表示,人工智能对量子运算的实用化至关重要。借助 Ising,人工智能将成为控制平面量子机器的操作系统,将脆弱的量子比特转化为可扩展且可靠的量子 GPU 系统。
量子纠错(Quantum Error Correction)是实现大规模运算的技术门槛。NVIDIA Ising 解码(Ising Decoding)提供两种 3D 卷积神经网络(3D CNN)模型变体,分别针对处理速度与运算精度进行优化。数据显示,Ising 解码模型的处理速度较当前业界开源标准 pyMatching 提升 2.5 倍,且精确度最高可达 3 倍。通过对即时解码量子比特产生的错误信号,研究人员能够维持运算的逻辑正确性。目前包括康奈尔大学与 IonQ 等机构在内,已部署此模型,探索更复杂的量子演算法应用。
根据市场研究机构 Resonance 的预测,全球量子运算市场规模在 2030 年有望达到 110 亿美元,其增长动能主要来自工程挑战的突破。NVIDIA Ising 系列不仅提供模型与训练数据,还与 NVIDIA CUDA-Q 软件平台及 NVIDIA NVQLink 硬件互连技术集成。这种混合架构设计使研究人员能够在本地端系统运行模型,确保实验数据的私密性。此外,通过 NVIDIA NIM 微服务,开发人员能针对特定硬件架构进行微调,协助现有的量子比特转化为具备可扩展性的量子运算系统。
Ising 开源模型开放下载
Ising 模型系列名称源自简化复杂物理系统研究的经典数学模型,体现了简化量子控制平面的设计理念。目前 NVIDIA Ising 模型已在 GitHub、Hugging Face 以及 NVIDIA 官方平台开放下载,加入了 NVIDIA 的开放式模型产品组合。该产品组合包括用于智能体的 NVIDIA Nemotron、用于实体 AI 的 NVIDIA Cosmos、用于自动驾驶汽车的 NVIDIA Alpamayo、用于机器人的 NVIDIA Isaac GR00T 以及用于生物医学研究的 NVIDIA BioNeMo。
通过将人工智能定位为量子机器的「控制平面」或操作系统,研发团队能够更高效地管理脆弱的量子比特。此举吸引了英国国家物理实验室(NPL)与多所国际顶尖大学加入生态系统,共同推动实用化量子应用程序的开发。
这些开放式模型、数据和框架可在 GitHub、Hugging Face 和 build.nvidia.com 上获取。
这篇文章《NVIDIA 发布全球首款为量子 AI 打造的「Ising 模型」》最早出现在《链新闻 ABMedia》。
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见
声明。
相关文章
用 AI 提高产出还是降低成本?百倍效率没换来百倍营收,但硅谷没人敢喊停
五源资本合伙人孟醒,近日发表硅谷考察报告,提出一个让他自己都改变记笔记习惯的判断:硅谷正在进入一个连造浪的人都被浪淹没的阶段。AI 的迭代速度已经从「按月」变成「按周」,连硅谷自己都跟不上自己。
当 AI 把一个团队的生产力放大五倍,你可以减少八成人力维持原本产出,也可以维持人数量做五倍的事。孟醒这次硅谷的观察,等于是在现场给出了答案的初稿:当 100 倍效率没有换来 100 倍营收,当 token 预算逼近人力成本,当蒸汽机还跑不过马车却没有人敢停下,硅谷现在选的是「先把速度冲上去再说」。但这条路最终会走到「扩张能力」还是「压缩成本」,目前没有定论。
YC 从领先指标变成落后指标
孟醒今年
鏈新聞abmedia50 分钟前
YC 合伙人分享如何用 AI 从头开始建立公司,创业公司应将 AI 当作操作系统而非工具
AI 对新创公司的影响,已经不只是让工程师写代码更快、让客服流程自动化,或是在既有产品里加上一个 Copilot。YC 合伙人 Diana 近日指出,真正的变化在于,AI 正在改写「一家公司应该如何从零开始被建立」。对早期创办人而言,AI 不应该只是公司偶尔使用的效率工具,而应该从第一天开始,就被设计成整间公司的作业系统。
生产力视角已经过时,AI 正在改写公司的设计起点
Diana 认为,目前市场谈 AI 时,仍太常停留在「生产力提升」的框架,例如工程师可以更快写代码、团队可以自动化更多流程、公司可以推出更多功能。但这个说法其实低估了 AI 带来的结构性改变。她指出,正确的人搭配 AI 工
鏈新聞abmedia1小时前
Cursor AI 代理出包!一行程式碼 9 秒清空公司資料庫,安全把關淪空談
PocketOS 的创办人 Jer Crane 指称 Cursor AI 代理在测试环境中自行执行维护,滥用一个新增/移除自定义域的 API Token,向 Railway 的 GraphQL API 发动删除指令。9 秒内数据与同区域快照全被摧毁,最新可还原到三个月前。代理人承认违反不可逆操作、未研读技术文件、未验证环境隔离等规定,受害者为租车业客户,预约与数据全都消失,对账工程耗时很长。Crane 提出五项改革:人工确认、细粒度 API 权限、备份与主数据分离、公开 SLA、底层强制机制。
鏈新聞abmedia1小时前
DeepSeek V4 Pro 在 Ollama Cloud 上:Claude Code 一键串接
根据 Ollama 推文,DeepSeek V4 Pro 于 4/24 发布,已以云端模式进入 Ollama 目录,仅一行指令即可调用 Claude Code、Hermes、OpenClaw、OpenCode、Codex 等工具。V4 Pro1.6T 参、1M context,Mixture-of-Experts;云端推理不下载本机权重。若要本地需自取权重并以 INT4/GGUF 与多卡 GPU 执行。早期测速受云端负载影响,常态约 30 tok/s,峰值 1.1 tok/s;建议以云端原型,正式量产再自行推理或使用商用 API。
鏈新聞abmedia1小时前
DeepSeek 将 V4-Pro 价格下调75%,将 API 缓存成本削减至原来的十分之一
Gate News 消息,4月27日——DeepSeek宣布对其面向开发者的新 V4-Pro 模型提供75%的折扣,并将其 API 产品线中输入缓存命中价格下调至此前水平的十分之一。
V4 模型于4月25日发布,提供 Pro 和 Flash 版本,已针对华为的 Ascend 处理器进行了优化。DeepSeek 表示,V4-Pro 在世界知识基准测试中优于其他开源模型,并仅次于谷歌的闭源 Gemini-Pro-3.1。V4 系列专为 AI 代理而设计,用于处理超出聊天机器人能力范围的复杂任务。
V4-Pro API 成本已经低于主要的西方竞争对手,定价为每百万输出 tokens 3.48 美元,而 对应 OpenAI 的 GPT-4.5。V4-Flash 的定价为每百万输入 tokens 0.14 美元、每百万输出 tokens 0.28 美元,可能使诸如在单次请求中审阅完整代码库或监管文件等具备成本效益的应用成为可能。
GateNews1小时前