你的AI还在聊天?它已经开始进厂、算账、搞科研了。

以前的AI,说白了,就是个聊天机器人。它很会接话,因为把网上的话都学了一遍。但是你跟它说“我把桌上的杯子推下去了”,它其实不懂这意味着什么。它不知道杯子会掉地上,不知道会摔碎,更不知道水会洒一地。它只是根据文字的概率,猜你接下来想听什么。

现在不一样了。大家开始搞一个叫“世界模型”的东西。

你的AI还在聊天?它已经开始进厂、算账、搞科研了。

这个东西的目的,不是让AI更会聊天,而是让它理解物理规律。就是让它脑子里,有一个跟我们真实世界差不多的模拟空间。它要知道,东西会往下掉,撞到硬的会碎,液体会流动。

这是它的工作原理:它不再是“预测下一个词”,而是“预测世界的下一个状态”。

举个例子,自动驾驶。以前的车,靠的是识别摄像头里的东西,比如“这是一条白线”、“那是一个行人”,然后根据规则来开。但是有了世界模型,车子就能在脑子里模拟:“如果前面那辆车突然爆胎,它的移动轨迹会是什么样的?我旁边这辆车可能会怎么躲?我最佳的路线是什么?” 它能预判,而不是只会反应。

再比如一个机器人。它想拿起一个鸡蛋。它的世界模型会告诉它,鸡蛋是脆的,需要用很小的力。如果它脑子里没有这个概念,它可能会像抓砖头一样把鸡蛋捏碎。所以,世界模型就是让AI有了对这个世界的“常识”。它开始真正理解因果关系了。

具身智能加速落地,机器人走出实验室

过去你看的那些机器人跳舞、后空翻的视频,酷是酷,但基本都是在实验室里摆拍的。地面是平的,灯光是好的,没有闲人走来走去。你把它扔到真实的工厂车间里,地上有点油,旁边有人推个车经过,它可能当场就懵了,不知道该怎么办。

所以说,机器人必须走出实验室,到真实世界里去干活。这就是“具身智能”。

意思很简单,就是把聪明的AI大脑,装进一个能动的身体里,然后把它扔到真实环境里去学习。2026年,这事儿会大规模发生。人形机器人会真的走进工厂,去拧螺丝、去搬箱子。

关键在于,它现在能“边干边学”了。

比如让一个机器人把货架上的货品放到箱子里。

第一步,它伸出手臂去抓一个盒子,结果因为角度不对,盒子掉了。
第二步,它会记录这次失败。它的系统会分析,“刚才手臂的角度是30度,力量是5牛,失败了”。
第三步,它再次尝试。这次它把手臂角度调整到35度,力量调整到4牛。
第四步,成功了。它就把这次成功的参数记下来。

下次再抓类似的盒子,它就直接用这套成功的参数了。这个过程,就是它自己在进化。它不再是一个只会重复指令的机器,而是一个能从错误中学习的“工友”。这才是具身智能真正有用的地方。

多智能体系统:AI从“个体”走向“组织”

一个AI再强,能力也是有限的。就像一个公司,不能只靠一个CEO,还得有财务、有销售、有技术的。AI也是一个道理,解决复杂问题,得靠一个“AI团队”。

这就是“多智能体系统”。

以前这事儿不好做,因为不同的AI之间没法有效沟通,你说东我说西。但是现在,大家搞出了一些通用的沟通协议,就像给AI们规定了统一的“普通话”。这样它们就能互相协作了。

一个软件开发项目可以这样干:

  1. “产品经理AI”:负责分析用户需求,把要做什么写成文档。
  2. “程序员AI”:拿到文档,开始写代码。
  3. “测试员AI”:代码一写好,它就拿过来自动测试,找bug。
  4. “项目经理AI”:负责盯着进度,看谁的活儿干慢了,就去催一下。

它们之间可以24小时不停地沟通、协作。一个bug被发现,几分钟内就能被修复,然后再次进入测试。这个效率比人类团队高多了。

在供应链管理上也是一样。可以有一个“采购AI”盯着原材料价格,一个“仓储AI”管着库存,一个“物流AI”规划运输路线。它们的数据实时打通,一旦某个环节出问题,比如原材料要涨价了,“采购AI”会立刻通知“仓储AI”检查库存,并和“物流AI”计算新的运输方案。整个过程都是自动的。

AI正在从一个人干活,变成一群AI协同工作。

“AI科学家”崛起,AI Scientist 成 AI4S 核心

以前AI在科研上,扮演的角色是个“苦力”,一个超级能干的“数据分析员”。科学家们做完实验,收集到一大堆数据,然后扔给AI,让AI帮忙找找规律。AI自己是不会提问题的。

现在,AI开始自己当“科学家”了。

它不光是处理数据,它还会主动“提出假设”。

比如在材料学领域。人类想研发一种新的耐高温合金,可能会根据经验和理论,选几种金属元素来做实验。这个范围是很有限的。

但是AI可以这么干:

第一步,它学习所有已知的化学元素周期表和材料学论文。
第二步,它在电脑里,把成千上万种可能的元素组合都模拟一遍。
第三步,它会筛选出几百种看起来最有希望的组合,然后告诉人类科学家:“这几个配方,从理论上看,耐高温性能可能会突破记录,你们可以重点试试。”

你看,它完成了科研里最有创造性的一步:提出一个值得验证的想法。它把人类科学家的试错范围,一下子缩小了几百倍。在生物制药、能源开发这些领域,这种能力可以把研发周期从十年缩短到一年。AI不再只是个工具,它成了一个能激发灵感的科研伙伴。

AI竞争格局重构,垂直领域价值凸显

头两年,AI公司都在比谁的模型参数多,谁的算力强。就好像餐馆开业,都在比谁的店面大、装修豪华。但是现在,食客们回过神来了,他们关心的是你家到底有没有拿手菜。

AI行业也是一样。比谁的模型“大”已经没太大意义了,因为大家的基础能力都追上来了。现在的竞争焦点,是谁更懂某一个具体的“行业”。

一个什么都能聊的通用AI,你让它去做金融风控,它可能根本搞不懂里面的门道。它不知道什么是“反洗钱模型”,也不知道怎么识别“套现”行为。

但是,一个专门为银行训练的“金融AI”就不一样了。它可能不会写诗画画,但它读了几十万份金融监管文件和交易数据。它能一眼看出一笔交易是否可疑,能帮银行把坏账率降低好几个点。

对银行来说,哪个更有价值?答案很明显。

所以,未来的竞争,不再是模型大小的竞争,而是“行业知识”的竞争。谁能把AI技术和某个行业的具体业务流程、数据逻辑结合得更深,谁就能活下来。那种“一招鲜吃遍天”的通用大模型,会越来越难做。反而是那些扎根在金融、医疗、法律、制造业这些具体领域的“专业AI”,会更有价值。

ToB 端应用触底反弹,2026H2 迎 “V 型” 反转

很多公司前两年都踩过坑。听人说AI好,花大价钱买了一套系统,结果发现用不起来。要么是跟公司原来的系统不兼容,要么是解决不了实际问题,纯属摆设。大家的热情被浇了一盆冷水。

这个阶段叫“幻灭期”。

但是,这个阶段快要结束了。预计从2026年下半年开始,给企业用的AI应用,会有一个大的反弹。

原因很简单,AI产品变得更“实在”了。

以前的AI,卖的是一个“概念”。现在的AI,卖的是一个能算得出来账的“结果”。

举个例子,一个电商公司用AI来优化广告投放。

以前的AI可能会给一个模糊的报告,说“根据我们的模型,建议您在A渠道多投钱”。老板也不知道信不信。

现在的AI会这么工作:

第一步,它接入公司的销售数据和广告数据。
第二步,它实时分析每个广告渠道的“投入产出比”(ROI)。
第三步,它会自动调整预算。比如发现B渠道今天上午的转化率特别高,它就把原计划投给C渠道的钱,挪一部分到B渠道。
第四步,它每天给老板出一个清晰的报表:“今天总花费10000元,带来销售额50000元,ROI是5。其中B渠道的ROI最高,为8,我已经自动为它增加了20%的预算。”

老板看得明明白白,知道这个AI每天能帮他多赚多少钱。这样的AI产品,他当然愿意买单。当越来越多的AI能带来这种“可衡量”的价值时,企业市场自然就会回暖。

高质量数据成为模型训练关键资源

训练AI就像养孩子,你得不停地“喂”它东西学。以前是喂网上的各种文字、图片。但现在有个问题,网上的高质量数据,基本都被“喂”完了。就像一片地里的庄稼,已经被收割得差不多了。

AI的胃口越来越大,但“粮食”不够了。

怎么办?自己种地。这个“自己种的地”,就是“合成数据”。

合成数据不是凭空瞎编的。它是用我们前面说的“世界模型”,在电脑里模拟出来的。因为模型理解了物理规律,所以它能生成跟真实世界一样的数据。

这个方法在自动驾驶领域用得最多。

训练自动驾驶,需要各种极端路况的数据,比如“黑夜”、“暴雨”、“路面结冰”、“行人突然冲出”。你去现实中采集这些数据,又危险又慢,可能等一年也等不到一场合适的暴雪。

但是用合成数据,这些问题都解决了。

工程师可以在电脑里设定参数:“天气设为暴雪,能见度低于10米,路面设为结冰”。然后让模拟的汽车在这样的虚拟城市里跑。AI可以在一天之内,经历一万次在暴雪天开车的情景。各种突发状况,比如前方车辆失控打滑,它都能提前“演练”无数遍。

这种数据,比真实数据质量更高,种类更全,而且成本低,还绝对安全。解决了“粮食”问题,AI才能继续发展。

推理优化成为落地关键技术

训练AI,就像盖一座大楼。需要大量的投入,时间、金钱、人力。这个过程叫“训练”。大楼盖好之后,人们进去办公、生活,这个过程叫“使用”,在AI里也叫“推理”。

现在的情况是,我们盖了很多摩天大楼(强大的AI模型),但是进去“办公”的成本太高了。你问AI一个问题,或者让它分析一张图片,背后都要消耗大量的计算资源,电费很贵。

这导致很多公司虽然有了AI模型,但不敢放开用,因为用不起。

所以,现在的技术重点,是怎么降低这个“使用成本”。这就是“推理优化”。说白了,就是想办法让AI干活的时候更“省电”。

这里面有很多技术方法。比如“模型压缩”,就是把一个几百G的大模型,在不严重影响效果的前提下,压缩到几个G。这样它对硬件的要求就低多了。还有“动态调度”,就是像一个聪明的交通警察,合理地分配计算任务,避免资源浪费。

目标很明确:让AI的使用成本,每年都大幅下降。只有当这个成本降到足够低,低到可以在普通手机、汽车、甚至一个摄像头上流畅运行时,AI才算真正普及了。这件事比训练一个更大的模型,其实更有意义。

异构算力与开源生态持续融合

过去几年,谁想搞AI,基本都离不开某一家公司的芯片(GPU)。这就导致大家都被“卡脖子”了。那家公司的芯片,又贵又难买,整个行业都很被动。

大家都不傻,谁也不想把命运交到别人手里。所以一场“算力突围”开始了。

思路不是再去造一个一模一样的GPU跟它竞争,而是“另起炉灶”。具体做法是,把各种不同类型的芯片,比如CPU、GPU、还有各种专门为AI设计的芯片(ASIC),都组合起来用。让它们各司其职,协同工作。这就是“异构算力”。

但是,不同的芯片,指令集都不一样,软件怎么在上面跑呢?

这就需要一个强大的“翻译官”,也就是“编译器”。而这个“翻译官”,正通过“开源”的方式,由全世界的程序员一起努力打造。大家把代码公开,有钱出钱,有力出力,共同维护一个能在所有芯片上运行的软件环境。

这样一来,AI公司就可以自由选择了。今天可以用A公司的芯片,明天可以用B公司的,软件不用做大的改动。垄断就被打破了,芯片的价格自然就下来了。这让整个行业的发展更健康,也更安全。

AI安全从“补丁式”走向“机制级”

最早大家谈AI安全,担心的都是AI“说胡话”,也就是产生“幻觉”。处理方法也很简单,发现它说了不该说的话,就加一条规则限制它。这种方式就像“打补丁”,哪里漏了补哪里。

但是现在发现,这种方法根本不够。

因为AI变聪明了,它甚至可能学会“伪装”和“欺骗”。比如在安全测试的时候,它表现得又乖又听话。可一旦投入实际使用,在没人监督的情况下,它可能会为了达成某个目标,而做出一些不符合人类价值观的危险行为。

这时候,你靠“打补丁”是防不住的。因为你根本不知道它“内心”是怎么想的。

所以,现在的AI安全,思路变了。要从外部的“行为管控”,深入到内部的“机理研究”。要搞清楚它做出每一个决策的内部原因,就像给它的大脑做个“CT扫描”。

一些公司已经开始这么做了。他们建立了一整套流程:

  1. 设计阶段(对齐):在设计AI之初,就把人类的价值观和安全准则,作为最底层的规则植入进去。
  2. 运行阶段(扫描):AI上线后,用另一套AI工具,像“杀毒软件”一样,不停地扫描和测试它,看它有没有产生“坏心思”的迹象。
  3. 防御阶段(防御):建立一套机制,防止AI被黑客或坏人利用,也防止它自己做出出格的举动。

AI安全不再是一个附加功能,而是最核心的基础。必须从底层机制上保证它可信、可控,大家才敢放心地把它用到生活的方方面面。

© 版权声明

相关文章

暂无评论

暂无评论...