黄仁勋一上来就说,计算机这行要变天了。
差不多每过个十年、十五年,整个行业就得重来一次。我们经历过从大电脑到个人电脑,后来又有了互联网和手机。每一次,玩法都全变了。但是这次,我们同时遇上了两个大变化。
第一个变化是,以后的软件,都要搭在AI上面。AI不再只是一个单独的应用。它成了地基,你所有的东西都得在上面盖。
第二个变化更彻底,是写软件和跑软件的方式都变了。我们不再是“写”代码,而是“训练”模型。也不再只靠CPU,而是用GPU去算。以前的程序,就像是提前录好的视频,放给你看。现在的程序,能自己思考,内容都是实时生成的。
这一切能发生,靠的是加速计算和人工智能。黄仁勋打了个比方,说计算机技术就像个“五层蛋糕”,从硬件到软件每一层,现在都在重新做。
这意味着,过去大家投了几万亿美元建的基础设施,现在都要更新换代了。一个上百万亿美元的产业,正在把研发的钱,都往人工智能这边砸。你问钱从哪来?就从这来的。所以整个行业忙得不行,感觉所有事都挤在2025年发生了。
AI模型的发展很快。从BERT到Transformer,再到让所有人都知道AI的ChatGPT。后来,AI又学会了“思考”,也就是所谓的“测试时缩放”。它不再是马上给你答案,而是会先想一想。这个过程需要巨大的算力。而且大语言模型还在不停地变聪明。

开源革命:前沿模型与智能体普及
而且,AI现在不一样了。它不再只是个聊天机器人。它开始变成“智能体”了。
智能体是什么?就是它能推理,会规划,还会自己找资料、用工具。黄仁勋举了个例子,他们公司内部有个叫Cursor的工具,就改变了他们写代码的方式。智能体让AI从一个聊天工具,变成了一个能干活的帮手。
AI也不光能处理文字。只要是信息,有规律,就能教给AI。比如物理AI,它就能理解重力、惯性这些自然规律。
去年发生的最重要的一件事,就是开源模型。当全世界的公司和聪明人都能参与进来,AI的发展就快得多了。比如中国的DeepSeek R1,就是一个开源的推理系统,让很多人都觉得很厉害。
开源模型的下载量跟疯了似的涨。因为每个公司、每个国家,都不想错过这次机会。智能这东西,不应该把任何人丢下。
黄仁勋说,英伟达早就想到了这一点。他们几年前就开始自己建超级计算机,当时别人还以为他们要搞云服务。其实不是。他们建这些大家伙,就是为了给自己开发开源模型用。
他们开发了很多模型。有研究蛋白质的,有预测天气的,还有搞人形机器人的Groot。然后,他们把这些模型全都开源了。不光模型,连训练数据也一起开源。这样大家才能信得过。
他们还给你一套工具,叫NeMo。这个工具能帮你处理数据、训练模型、给模型加上安全措施,直到最后部署使用。整个流程都管了。
所以,英伟达的角色变了。它不光是卖芯片的。它成了一个AI模型的建造者。而且它用开放的方式来做,让每个公司、每个行业都能参与。
这一切,都是为了让你可以方便地做出自己的AI智能体。以前的AI会胡说八道,是因为它只知道过去的事。现在的智能体,在回答问题前,会先去做研究,把问题拆解成小步骤,再调用工具来解决。
而且,现在流行一种更聪明的做法。就是让一个AI去调用其他很多个AI。比如,先让一个主管AI来判断任务。然后它会想,这个任务是处理图片厉害的模型擅长,还是分析文字厉害的模型擅长。接着,它就把任务派给最合适的那个模型去干活。
这个方法让你的AI既有自己的独门绝技,又能随时用上全世界最新的能力。英伟达做了一个叫“AI Route Blueprint”的框架,就是帮你实现这个想法。现在,很多大公司的软件平台,比如Palantir、ServiceNow,都在用这个思路。以后你和软件打交道,可能就像和人聊天一样,直接告诉它你要干嘛就行了。
物理AI突围:教会机器理解与交互真实世界
接下来说说物理AI。
简单说,就是让AI能跟真实世界打交道。黄仁勋说他们搞这个已经八年了。这件事的难点在于,AI不懂常识。比如,它不知道你把一个东西推倒,它会倒下。它也不懂重力、摩擦力这些东西。
那怎么教它呢?光看视频不够。数据太少了。所以,他们想了个办法:用电脑模拟。通过模拟,可以生成海量的、符合物理规律的合成数据,拿来训练AI。
黄仁勋说,要实现这个,需要三台电脑一起工作。
第一台,是训练电脑。就是我们熟悉的英伟达超级计算机,用来训练模型。
第二台,是推理电脑。就是装在汽车或者机器人里面的那个“大脑”,负责在现场做决定。
第三台,是模拟电脑。这个最重要。AI在进入真实世界之前,得先在数字世界里反复演练。这样既安全,又能收集到足够的数据。
今天发布的Alpamayo,就是这么搞出来的。它是世界上第一个会思考、会推理的自动驾驶AI。
它不光会开车。它还会告诉你,它为什么要这么开。比如它要变道,它会解释说“因为前方车辆速度太慢,我需要超车”。这对于处理各种没见过的突发情况很有用。AI可以把一个复杂的新问题,拆解成它学过的几个小问题,然后通过推理来解决。
为了保证安全,这套系统其实有两个自动驾驶系统在同时跑。一个是聪明的Alpamayo。另一个是传统的、更稳妥的经典系统,像个安全员。平时让Alpamayo开,如果Alpamayo觉得没把握,系统就立刻切换到那个经典系统,保证安全。
黄仁勋觉得,以后路上的车都会是自动驾驶的。而Alpamayo今天也开源了。英伟达想把这套方法,用到所有的机器人身上,不管是工厂的机械臂,还是人形机器人。
计算跃进:Rubin平台与全栈芯片的终极重构
但是,上面说的这些,都需要巨大的算力。
现在的情况是,AI模型每年变大10倍。AI学会“思考”后,生成的内容每年多5倍。同时,为了竞争,生成这些内容的成本,每年还得降低10倍。
只靠升级单个芯片,已经跟不上这个速度了。所以英伟达搞了个新平台,叫Rubin。
他们这次的做法很直接。把构成计算平台的所有芯片,从CPU到GPU再到网络芯片,全都重新设计了一遍。
- Vera CPU:这就是电脑的大脑。它的特点是省电,在功耗一样的情况下,性能比别人强一倍。
- Rubin GPU:这是专门干AI活儿的。性能比上一代强了5倍,但用的晶体管只多了1.6倍。
- NVFP4 Tensor Core:这是GPU里面的一个智能单元。它会自己判断,在计算时用多高的精度。需要精确的时候就精算,可以粗略算的时候就快点算,把性能用到极致。
- Spectrum-X 网卡:AI的数据传输跟平时上网不一样,会突然有很大的流量。这个网卡就是专门处理这种情况的,能让整个数据中心的效率提高不少。
- BlueField-4 DPU:这是数据中心的大管家。它能管理和分配资源,还能给AI提供一个超快的临时内存区,解决网络堵塞的问题。
- NVLink-6 交换机:这是连接GPU的高速公路。它能让每个GPU同时跟其他所有GPU高速通信,速度快得吓人。
黄仁勋说,Rubin平台现在已经全面生产了。这意味着英伟达打算每年都推出新一代的计算技术。
这个新平台的结果很清楚。第一,训练AI的速度更快了。第二,同样的电,能产生更多的算力,数据中心更高效了。第三,AI生成内容的成本,直接降到了原来的十分之一。
生态闭环:从基础设施到行业渗透的全栈布局
所以你看,英伟杜现在做的不是简单的芯片生意。它在搭一个台子。
它把从硬件、系统、网络到软件、模型、工具,这一整套东西都给你准备好了。这个台子很结实,能干很多事。
然后,它把这个台子开放出来。你想整个用,行。你想只用它的一部分,也行。就像乐高积木一样,你可以用它的零件,搭出你自己的东西。
比如自动驾驶公司,有的跟英伟达合作所有环节,从芯片到软件。有的就只买它的车载电脑芯片。
这个方法让英伟达的技术能进入各行各业。比如,芯片设计公司Cadence和Synopsys,还有工业巨头西门子,都在把英伟达的AI技术用到自己的工具里去。
以后会怎么样?以后,设计一个机器人,可能就是在电脑里设计,在电脑里模拟制造,在电脑里测试。整个过程都在数字世界里完成。
黄仁勋做的,就是把这些强大的工具都给你。让每个公司、每个开发者,都能用这些工具,去创造新的东西。他没有给出未来的标准答案。他只是把创造未来的工具,交到了大家手上。