英伟达2026年花钱会很多。他们要证明自己在AI这块儿还是老大。
1月6号,在CES 2026这个展会上,英伟达的老板黄仁勋开了个发布会。他在最后讲了公司最新的超级芯片,叫Rubin。他说这个Rubin架构,是专门用来造AI超级计算机的,能开启下一个AI时代。
其实,Rubin这个名字不是第一次出现。早在2024年,英伟达就提过它。那时候大家用的主力还是Hooper系列的芯片。从那以后,英伟达就一直在更新Rubin的消息。
比如在2025年10月,黄仁勋在华盛顿的GTC大会上,第一次拿出了Rubin芯片的样品给大家看。他还说,这个芯片的算力,比当时卖得最好的Blackwell芯片要强3倍以上。
那时候,大家都猜,这个芯片最早也要到2026年下半年才能正式生产。但是,黄仁勋这次在CES上直接告诉大家,Rubin现在已经全面投产了。这个时间提前了很多。
不过他也说了,虽然开始生产了,但要大规模供货,还得等到今年下半年。到时候,用Rubin平台做的各种芯片才会开始卖给客户。

Rubin不是一块芯片,是一套系统
你可能会以为Rubin就是一块更快的GPU。这么想就错了。英伟达这次搞的,不是一个单独的零件,而是一整套平台。它由六个不同的芯片组成,大家一起干活。
这是它的工作原理,我们把它拆开看看这六个部分:
- NVIDIA Vera CPU (中央处理器)
这个是整个平台的大脑。它负责发号施令,管理和调度任务。告诉GPU和其他部分该干什么。 - NVIDIA Rubin GPU (图形处理器)
这个是核心,是干活的主力。所有复杂的AI计算,比如训练大模型,都是它来完成。你可以把它想象成系统的肌肉。 - NVIDIA NVLink™ 6 交换机
这个东西很重要。当你好几个GPU一起工作时,它们之间需要大量交换数据。NVLink就是连接它们的高速公路,速度快,延迟低,保证数据传输跟得上计算的速度。 - NVIDIA ConnectX-9® SuperNIC (超级网卡)
这个是连接服务器和服务器的接口。数据中心里有成千上万台机器,它们之间的数据交换就靠这个网卡,速度要快。 - NVIDIA BlueField-4® DPU (数据处理器)
这个DPU可以帮CPU分担很多杂活。比如处理网络数据、存储任务和安全检查。这样CPU就能专心干更重要的事,整个系统的效率就高了。 - NVIDIA Spectrum-6™ 以太网交换机
这个是整个数据中心的交通枢纽。它负责把所有服务器都连接起来,形成一个巨大的网络,让数据在整个中心里顺畅流动。
黄仁勋说,这六个芯片设计的时候就考虑了互相配合。它们不是简单地拼在一起,而是深度协作。这样一来,不管是训练还是使用AI大模型,效率和性能都提上去了。
Rubin到底快在哪里?
光说没用,我们看看具体的数据。跟现在市面上的Blackwell架构比,Rubin强在下面这几个地方。
- 训练速度快了3.5倍现在有一种模型叫混合专家(MoE)模型,它很大,训练起来很费劲。Rubin可以用4倍的GPU数量来同时训练它。这是什么意思呢?举个例子。假设以前用Blackwell训练一个大模型需要30天。现在用Rubin,同样的工作,大概8到9天就能完成。这样一来,AI公司开发新模型的时间就大大缩短了。
- 使用成本降了10倍这个可能对普通人影响最大。使用成本,也叫推理成本,就是你每次调用AI服务的花费。比如你用AI写一段话,或者画一张图,背后都要花钱。Rubin把每个token(可以理解为AI处理的一个字或词)的平均成本降低了10倍。比如,以前你问AI一个问题,背后的算力成本可能是1毛钱。现在用了Rubin,可能就只需要1分钱。成本降下来,AI服务才能更便宜,更多人才能用得起。
- 能源效率高了8倍数据中心是耗电大户。Rubin每消耗1瓦的电力,能提供的推理算力是Blackwell的8倍。这不光是省电费那么简单。芯片耗电少,发热就少。数据中心每年都要花很多钱给机器散热降温。芯片更节能,散热成本也跟着降低。这对环保和运营成本都有好处。
英伟达为什么开始强调“性价比”?
发布会上,黄仁勋一直在说Rubin能“以最低成本加速主流AI的应用和普及”。听起来有点奇怪,英伟达的东西一向都很贵,怎么开始谈性价比了?
这是因为英伟达现在也有了竞争对手,不能高枕无忧了。
现在市场上出现了一种叫ASIC的芯片,比如谷歌自己研发的TPU就是其中一种。ASIC是为了某个特定的任务专门设计的芯片,它干这件事的效率可能比通用的GPU更高,成本也可能更低。
这些对手攻击英伟达的主要方法,就是宣传自己的方案总拥有成本(TCO)更低。这个TCO不只是买芯片的钱。它还包括了服务器的电费、维护人员的工资、机房的散热开销等等。对手说,虽然你英伟达的GPU性能强,但是我用我的方案,把所有成本都算上,几年下来比你更划算。
所以,黄仁勋这次必须回应这个问题。他想告诉客户:我的Rubin芯片单价可能不便宜。但是,它速度快,效率高,还省电。你把这些因素都考虑进去,算总账的话,用我的方案其实更省钱。
这也是英伟达对市场预测的一种反击。很多分析机构,比如摩根大通,都预测说ASIC芯片未来的市场份额会增长得比GPU快。英伟达推出Rubin,就是要用实际产品告诉他们:GPU的地位还很稳固。
谁在排队买Rubin?
英伟达完全不愁客户。黄仁勋在发布会上点了一长串名字。基本上全球所有搞AI的大公司,都打算部署Rubin。
这里面包括:
- 提供云服务的巨头:像亚马逊的AWS、谷歌、微软、Meta、甲骨文。
- 开发大模型的公司和实验室:比如OpenAI、Anthropic、马斯克的xAI。
- 卖服务器和电脑的厂商:比如戴尔、联想。
可以说,AI这条赛道上的主要玩家,都把Rubin放进了自己的购物车。
但是,有个情况比较特殊。因为美国政府对高端GPU有出口限制。所以中国的云服务商和AI开发者,目前还不能直接在自己的数据中心里用上Blackwell和Rubin这种最新的芯片。
AI的下一步:代理AI和物理AI
在讲Rubin这个硬件之前,黄仁勋还花时间讲了他对AI未来的看法。他认为AI的发展会分三步走。
第一步,是生成式AI。这就是我们现在正在经历的阶段。AI可以帮我们写文章、画画、做音乐。
第二步,是代理AI。黄仁勋觉得2026年就会进入这个阶段。代理AI不只是一个工具,它更像一个智能助理。你可以给它一个复杂的目标,它会自己去规划步骤并执行。
举个例子。你可以对代理AI说:“帮我计划一次五一去三亚的家庭旅行,三个人,预算一万块,要订好机票和能看海的酒店。” 然后,AI就会自己去网上搜索航班、比较酒店价格、根据你的要求做好规划,最后把方案给你确认。它能帮你做事,而不是等你下达一步步的具体指令。
第三步,是物理AI。这是最终的目标,就是让AI进入现实世界,控制机器人和自动驾驶汽车。
英伟达也在这方面做了很多准备。他们发布了一个叫Alpamayo的自动驾驶模型,号称能自主思考和推理。他们还搞了一个叫GR00T的机器人基础模型。像波士顿动力、LG这些有名的公司,都在用英伟达的技术来开发自己的AI机器人。
黄仁勋最后说了一句话:“物理AI的‘ChatGPT时刻’已经到来了。”
他的意思是,就像ChatGPT引爆了语言大模型一样,能与现实世界互动的智能机器人,现在也到了爆发的前夜。而所有这些宏伟的计划,无论是代理AI还是物理AI,都需要极其强大的算力来支持。
所以,英伟达现在推出Rubin平台,就是为这个未来提前打好基础。