开云体育
开云APP下载英伟达罕见不发显卡刚刚黄仁勋带着25吨新「核弹」炸场DeepSeek又被点名
CEO 黄仁勋阔步走向 NVIDIA Live 的舞台中央,还是去年那件亮面鳄鱼皮衣。
与去年单独主旨演讲不同,2026 年的黄仁勋密集赶场。从 NVIDIA Live 到西门子工业 AI 对话,再到联想 TechWorld 大会,48 小时内横跨三场活动。
上一次,他在 CES 发布了 RTX 50 系列显卡,而这一次,物理 AI 和机器人技术成为了全新的主角。
发布会期间,爱整活的老黄直接把一台 2.5 吨重的 AI 服务器机架搬上了舞台,也因此引出了本次发布会的重点:Vera Rubin 计算平台,以发现暗物质的天文学家命名,目标只有一个:
通常来说,英伟达内部有个规矩:每代产品最多只改 1-2 颗芯片。但这次 Vera Rubin 打破了常规,一口气重新设计了 6 款芯片,并已经全面进入量产阶段。
究其原因,伴随着摩尔定律的放缓,传统性能提升方式已经跟不上 AI 模型每年 10 倍的增长速度,所以英伟达选择了「极致协同设计」——在所有芯片、整个平台各个层级上同时创新。
-连接 18 个计算节点,支持最多 72 个 Rubin GPU 像一个整体协同运行
尽管性能提升如此巨大,晶体管数量只增加了 1.7 倍,达到 220 万亿个,展现了半导体制造技术上的创新能力。
以前的超算节点要接 43 根线 小时,还容易装错。现在 Vera Rubin 节点采用 0 根线 根液冷管线 分钟搞定。
更夸张的是,机架后面布满了总长近 3.2 公里的铜缆,5000 根铜缆构成 NVLink 主干网络,实现 400Gbps 传输速度,用老黄的话来说,:「可能有几百磅重,你得是体格很好的 CEO 才能胜任这份工作」。
此外,虽然 Rubin 的功耗是 Grace Blackwell 的 2 倍,但性能提升远超功耗增长,整体推理性能提升 5 倍,训练性能提升 3.5 倍。
更重要的是,Rubin 相比 Blackwell 吞吐量(每瓦-每美元可完成的 AI Token 数)提升10倍,对于造价 500 亿美元的千兆瓦数据中心来说,这意味着营收能力将迎来直接翻倍。
过去 AI 行业的最大痛点是,上下文内存不够用。具体来说,AI 在工作时会生成「KV Cache」(键值缓存),这是 AI 的「工作记忆」。问题是,随着对话变长、模型变大,HBM 内存显得有些捉襟见肘。
每个节点配 4 个 BlueField-4,每个背后有 150TB 上下文内存,分配到 GPU 上,每块 GPU 额外获得 16TB 内存——而 GPU 自带内存只有约 1TB,关键是带宽保持 200Gbps,速度不打折。
但仅有容量还不够,要让分布在几十个机架、上万块 GPU 上的「便签」像同一块内存那样协同,网络必须同时做到「够大、够快、够稳」。这就轮到 Spectrum-X 登场了。
Spectrum-X 是英伟达推出的全球首款「专为生成式 AI 设计」的端到端以太网网络平台,最新一代的 Spectrum-X 采用台积电 COOP 工艺,集成硅光子技术,512 通道×200Gbps 速率。
老黄算了笔账:一个千兆瓦数据中心造价 500 亿美元,Spectrum-X 能带来 25% 吞吐提升,相当于节省 50 亿美元。「你可以说这个网络系统几乎是『白送』的。」
重头戏看完,回到演讲开始。黄仁勋一上台就抛出了一个惊人的数字,过去十年投入的约 10 万亿美元计算资源,正在被彻底现代化。
但这不仅仅是硬件的升级,更多的是软件范式的转移。他特别提到了具备自主行为能力(Agentic)的智能体模型,并点名了Cursor,彻底改变了英伟达内部的编程方式。
最让现场沸腾的,是他对开源社区的高度评价。黄仁勋直言,去年DeepSeekV1 的突破让全世界感到意外,它作为第一个开源推理系统,直接激发了整个行业的发展浪潮。PPT 上,我们熟悉的国产玩家 Kimi k2 和 DeepSeek V3.2 分别是开源第一和第二。
黄仁勋认为,虽然开源模型目前可能落后最顶尖模型约六个月,但每隔六个月就会出现一个新模型。
所以,他们这次也没有只卖铲子,推销显卡;英伟达构建了价值数十亿美元的 DGX Cloud 超级计算机,开发了像 La Proteina(蛋白质合成)和 OpenFold 3 这样的前沿模型。
英伟达开源模型生态系统,涵盖了生物医药、物理 AI、智能体模型、机器人以及自动驾驶等
而英伟达 Nemotron 模型家族的多款开源模型,也成为这次演讲的亮点。其中包含语音、多模态、检索生成增强以及安全等多个方面的开源模型,黄仁勋也提到,Nemotron 开源模型在多个测试榜单上表现优秀,并且正在被大量的企业采用。
如果说大语言模型解决了「数字世界」的问题,那么英伟达的下一个野心,很明显是要征服「物理世界」。黄仁勋提到,要让 AI 理解物理法则,并在现实中生存,数据是极其稀缺的。
在智能体开源模型 Nemotron 之外,他提出了构建物理 AI(Physical AI)的「三台计算机」核心架构。
训练计算机,也就是我们熟知的,由各种训练级显卡构建的计算机,像图片中提到的 GB300 架构。
模拟计算机,包括 Omniverse 和 Cosmos,它能为 AI 提供一个虚拟的训练环境,让它在模拟中学习物理反馈。
基于这套架构,黄仁勋正式发布了震惊全场的 Alpamayo,全球首个具备思考和推理能力的自动驾驶模型。
与传统自动驾驶不同,Alpamayo 是端到端训练的系统。它的突破性在于解决了自动驾驶的「长尾问题」。面对从未见过的复杂路况,Alpamayo 不再是死板地执行代码,而是能像人类司机一样进行推理。
「它会告诉你接下来会做什么,以及它为什么会做出这样的决策」。在演示中,车辆的驾驶方式惊人地自然,能够将极端复杂的场景,拆解为基础常识来处理。
演示之外,这一切也不是纸上谈兵。黄仁勋宣布,搭载 Alpamayo 技术栈的奔驰 CLA,将在今年第一季度于美国正式上线,随后陆续登陆欧洲和亚洲市场。
这辆车被 NCAP 评为全球最安全的汽车,底气就是来自于英伟达独特的「双重安全栈」设计。当端到端的 AI 模型对路况信心不足时,系统会立即切换回传统的、更稳妥的安全防护模式,确保绝对安全。
九大顶级 AI 及相关硬件制造商之间的竞争,他们都在扩大产品线,尤其是要抢夺机器人赛道,高亮的单元格为自去年以来的新产品
所有机器人都将搭载 Jetson 小型计算机,在Omniverse 平台的 Isaac 模拟器中接受训练。并且英伟达正在把这套技术整合进Synopsys、Cadence、西门子等工业体系。
黄仁勋邀请了包括波士顿动力、Agility 等人形机器人、四足机器人「登台」,他强调,最大的机器人其实是工厂本身
自下而上,英伟达的愿景是,未来芯片设计、系统设计、工厂仿真,都将由英伟达物理 AI 加速。发布会上,又是迪士尼机器人闪亮登场,老黄还因此对着这群超萌机器人调侃道:
「你们会在计算机中被设计、在计算机中被制造,甚至在真正面对重力之前,就会在计算机中被测试和验证。」
在 AI 泡沫论甚嚣尘上的今天,除了摩尔定律的放缓,黄仁勋似乎也需要用 AI 到底能做什么,来提升我们每个人对 AI 的信心。
除了发布全新 AI 超算平台 Vera Rubin 的强悍性能,来安抚算力饥渴,他在应用和软件上也比以往花了更多的功夫,拼尽全力让我们看到,AI 将会带来哪些直观改变。
此外,就像黄仁勋说的一样,过去他们为虚拟世界造芯,现在他们也下场亲自演示,将注意力放在以自动驾驶、人形机器人为代表的物理 AI,走进行业竞争更激烈的真实物理世界。


2026-01-06
浏览次数:
次
返回列表