以前的AI,就是陪你聊天,给你画画,写点文章。那些东西,现在看已经有点过时了。
英伟达的老板黄仁勋,在2026年的一个会上直接说了,物理AI的时代来了。
那什么是物理AI?
说白了,就是AI不再只待在电脑里。它要出来,到我们生活的这个真实世界里干活。要干活,它就得先搞懂这个世界是怎么运转的。
比如,它必须知道苹果会从树上掉下来,因为有重力。它要知道冰是滑的,沙子是粗糙的,因为有摩擦力。它还要知道玻璃杯掉地上会碎,但是皮球不会。这些就是物理规律。

让AI懂这些,就是物理AI的核心。
中国科学技术大学有个叫王翔的教授,他解释得更清楚。他说,物理AI干活,分四步。这是一个循环,叫“感知—推理—行动—反馈”。
我们拿一个机器人抓鸡蛋来举例子,看看它是怎么工作的。
第一步,是感知。机器人的摄像头看到了桌上的鸡蛋。它识别出这是一个鸡蛋,不是乒乓球。
第二步,是推理。AI大脑开始计算。它根据图像,判断出鸡蛋的位置、大小。它还从自己的知识库里知道,鸡蛋是椭圆的,壳很脆,不能太用力。它还会计算,自己的机械手应该用多大的力气去抓,才能既抓得稳,又不会捏碎。
第三步,是行动。AI大脑发出指令,指挥机械臂移动过去,张开爪子,然后用刚才算好的力道,轻轻抓住鸡蛋。
第四步,是反馈。机械臂的爪子上有传感器。它能感觉到自己是不是抓稳了。如果感觉有点滑,AI就会立刻调整,稍微加大一点点力气。如果它这次抓成功了,AI就会记住这个力道。如果失败了,比如把鸡蛋捏碎了,它也会记住,下次用更小的力。
你看,它不光能做事,还能从成功和失败里自己学东西,下次做得更好。这就是物理AI和以前的AI最大的不同。以前的AI你得教它。现在的AI,它自己就能学。
英伟达为了证明这不是空话,拿出了两个东西。一个叫Cosmos,你可以把它想成一本专门教机器人物理知识的教科书。另一个叫Alpamayo,这是给自动驾驶汽车用的,就是一个很会开车的老司机大脑。
所以,别老想着AI会不会取代作家和画家了。它现在要学的,是怎么拧螺絲、怎么开车、怎么做手术。这些事,比写诗画画要实在得多。
重塑相关产业图景
当AI真的开始动手干活,很多行业就要变天了。
黄仁勋觉得,物理AI加上机器人,会带来一场新的工业革命。这话不是随便说说的。我们来看看几个已经开始变化的地方。
第一个,是工厂。
以前的工厂生产线,很笨。程序怎么设定,它就怎么干,一成不变。你要是想换个零件生产,整条线都得停下来,找工程师来重新调试,很麻烦。
但是,装了物理AI的工厂就不一样了。
生产线变得很灵活。摄像头就是它的眼睛,它能自己看到传送带上的物料是什么,摆在哪里。如果发现一个零件有瑕疵,它会自己把它挑出来。它还能根据订单的多少,自己加快或者放慢生产速度。
比如,有个生产新能源电池的工厂。用了这套东西之后,它的设备利用率高了35%。意思就是,同样的时间里,机器干活的时间更长了,不是在那空转或者闲着。而且,还省了20%的电。
特斯拉的工厂更厉害。他们的焊接机器人,在物理AI的帮助下,焊接精度能控制在0.1毫米以内。那比一根头发丝还细。它们甚至能两只手一起干活,完成一些很精细的操作。
而且,工厂里的机器人之间还能互相沟通。它们会自己规划路线,不会撞到一起。它们还能看到旁边走过来的工人,然后主动停下来让路。整个车间,就像一个配合默契的团队。
第二个,是自动驾驶。
你可能觉得现在的自动驾驶已经很厉害了。但其实,它还是个新手。它主要靠的是以前学习过的大量数据。就好像一个学生,只会做自己刷过的题。如果碰到一个题库里没有的新情况,比如突然下冰雹,或者路上有个翻倒的沙发,它就可能反应不过来。
但是,基于物理AI的自动驾驶,更像一个经验丰富的老司机。
它不光是“看见”路上有什么,它还能“理解”接下来可能会发生什么。它看到路边有个小孩在拍皮球,它就会提前减速。因为它知道,那个皮球很可能会滚到马路中间,然后小孩会跟着冲出来。这就是理解了行为和结果之间的关系。
小鹏汽车用了类似的技术后,他们的车在雨雪天气里的处理能力,提升了30%。特斯拉的Optimus机器人,也是先在虚拟世界里训练,动作的精准度提升了50倍。
第三个,是医疗。
现在已经有手术机器人了,比如达芬奇机器人。但它更像医生手里的一个高级工具,所有操作还是要靠医生来控制。
物理AI能让手术机器人变得更聪明。
它可以在手术中,帮医生做一些判断。比如,在做心脏搭桥手术的时候,AI可以根据血液流动的模型,实时分析血管的弹性。然后,它会建议医生用多大的力道来缝合血管,才能既牢固,又不会撕裂血管壁。
数据显示,用了物理AI之后,达芬奇手术机器人的术中出血量减少了40%。还有一种超声穿刺机器人,经过训练后,操作失误率降低了60%。它能帮医生更准地找到病灶。
最后一个,是科学研究。
做研究,一般就是“提出假设、做实验、分析结果、再提出新假设”这个过程。这个过程很慢,有时候还很靠运气。
物理AI可以把这个过程自动化。
它可以自己分析现有的数据,然后提出一个最有价值的假设。接着,它指挥实验室里的自动化设备去做实验。实验数据出来后,它自己分析,如果假设错了,它就马上提出一个新的,再做实验。
这样一来,它就能24小时不停地工作,大大加快了新材料、新药物的研发速度。以前可能需要一个团队花几年才能完成的工作,现在交给它,可能几个月就搞定了。
仍有险峰待攀登
物理AI听起来很好,但要让它在我们的生活里普及开来,还有很多问题要解决。这些问题一个比一个麻烦。
第一个问题,就是成本太高。
训练物理AI,需要大量真实世界的数据。这些数据很贵,也很难弄到。
就拿自动驾驶来说。你得让一辆车在真实的路面上跑上百万公里,才有可能遇到一次那种很极端的突发情况。比如,在大雪天的高速公路上,前面突然冲出来一只鹿。每一次这种测试,都是在烧钱。而且,如果测试失败,出了事故,那代价就更大了。
第二个问题,是虚拟和现实的差距。
有人说,既然真实路上跑太贵,那就在电脑里模拟一个世界来训练它,不就行了?
这是个好办法,现在大家也都在这么做。但是,模拟的世界,终究是假的。
你可以模拟下雨,但你很难模拟出雨水打在摄像头上,形成各种奇怪反光的样子。你可以模拟路面,但你很难模拟出轮胎磨损了一点之后,和地面摩擦力的细微变化。
这些在模拟世界里不存在的细节,到了真实世界里,都可能导致AI做出错误的判断。怎么让AI把在虚拟世界里学到的本事,顺利地用在现实世界里,这是个大难题。
第三个问题,是责任和伦理。
这是最头疼的一个问题。如果物理AI控制的机器,出了事故,伤害了人,那到底该谁负责?
比如,一辆自动驾驶汽车撞了人。责任在车主吗?可他当时并没有开车。在汽车公司吗?还是在写代码的那个程序员身上?或者,我们应该怪AI自己?
我们现在的法律,都是围绕“人”来制定的。它还没准备好怎么去处理一个“非人”的责任主体。这个问题不解决,物理AI就很难被大规模地应用在关键领域。
最后一个问题,是信任。
说到底,我们人类还没那么信任机器。
让你坐一辆没有方向盘的汽车,你心里会踏实吗?让你躺在手术台上,让一个机器人给你做心脏手术,你会不会害怕?
很多人担心自己的工作会被机器人抢走。更多人是不相信机器能处理好那些复杂的、意想不到的状况。
这种不信任感,不是靠技术好就能解决的。它需要很长的时间,需要AI在各种应用中,都表现得足够安全、足够可靠,人们才会慢慢接受它。
就像王翔教授说的,真正的智能,不是看你算得有多快,而是看你懂不懂这个世界。
当机器人开始理解什么是重力,当汽车学会预判路面的湿滑,当机械臂知道生命组织的脆弱。那个时候,我们才能说,机器好像真的有了那么一点点“意识”。