95%的企业AI都掉坑里了,但搞懂这几点,才是2026年出海的真正机会

AI提示词1个月前更新 jinlian
7 0

以前的AI看图片,只能认出这是猫,那是狗。但是现在,AI开始理解我们这个真实世界是怎么运转的。这个技术叫多模た态世界模型。

简单说,就是AI不光能“看”,还能“脑补”。你给它一张桌子上有个杯子的照片。它看完,脑子里就能建一个这个杯子的3D模型。而且,它还知道物理规律。它明白这个杯子如果从桌子边上掉下去,会摔碎。它不会认为杯子会飘起来。

智源研究院的Emu3.5模型就在做这个事。这就是一个具体的例子。AI看到一个东西,就能预测接下来会发生什么。这跟单纯识别物体是两回事。

95%的企业AI都掉坑里了,但搞懂这几点,才是2026年出海的真正机会

这个技术有什么用呢?比如做游戏。以后游戏里的山、河、建筑,可能AI看看概念图就自动建好了。而且光影效果、物体碰撞,都跟真的一样。再比如自动驾驶。车上的AI能预判,一个滚到马路上的皮球后面,很可能跟着一个小孩。它会提前减速。这就是因为它理解了“球”和“小孩”在现实世界里的关联。

多智能体系统:AI也搞团队合作

我们总觉得AI是一个超级大脑,单打独斗。但是,现在的AI开始组队干活了。这个叫多智能体系统。

你可以把它想成一个AI团队。团队里每个AI有自己的特长。有的会分析数据,有的会写东西,有的会做推理。以前它们之间没法好好沟通。现在有了统一的沟通标准,比如MCP、A2A这些协议。它们之间交流起来就顺畅了。

效果怎么样?一个AI单独干活,准确率可能是60%。但是,你让一群AI合作,互相配合,互相检查。准确率能做到接近100%。这个效率比人类团队高多了。

但是,这事也有风险。有个公司的四个AI,让它们互相聊天。结果它们聊进了一个死循环,谁也说服不了谁,就这么一直聊。聊了11天,最后账单来了,花了47000美元。所以,怎么管理这些AI团队,让它们好好干活而不是吵架,是个新问题。

AI科学家:AI自己做科研

这个趋势可能最让人意外。以前,我们让AI当助手,帮科学家查资料、处理数据。现在不一样了,AI要自己下场当科学家了。

美国有个“创世纪计划”。它的工作方式是这样的:
第一步,AI去读几百万篇科学论文,自己学习知识。
第二步,它根据学到的东西,自己提出一个新的、没人研究过的科学假设。
第三步,它自己设计一套实验流程,来验证这个假设是对是错。
第四步,它甚至能直接控制实验室里的设备,完成实验。

整个科学发现的过程,从提出问题到找到答案,AI自己全包了。国内也正在追赶,虽然基础模型还差点,但我们的工程师多。未来,很多科学突破,可能就是一个AI团队24小时不停地工作、试错得出的结果。

C端超级应用:一个APP管所有事

这个跟我们每个人的生活关系很大。你看看你的手机,是不是装了一堆APP。点外卖一个,打车一个,买东西又一个。来回切换很麻烦。未来的趋势是,一个APP就够了。

这就是C端超级应用。它的核心是一个聪明的AI助理。你不用再打开一个个APP操作。你只需要跟这个AI助理说一句话。

举个例子,你对手机说:“晚上七点半,帮我订个公司附近两人位的日料,再买两张九点的电影票,然后叫一辆车六点半来公司接我。” 以前这事你得打开三个APP,操作半天。现在,AI助理帮你一次性全办好。

这个趋势已经开始了。比如蚂蚁集团的“灵光”,上线6天下载量就200万。字节跳动的“豆包”,月活跃用户数已经是全球第二。以后大家抢的不是谁的APP装得多,而是谁家的AI助理更好用。

垂直赛道:做“小而美”的专家

所有公司都去做通用大模型,就像所有车都挤在一条高速上,肯定会堵车。有些聪明的公司就选择拐进一些小路,也就是垂直赛道。

它们不做那种什么都懂一点的“万金油”AI。它们只做一个特定领域的专家。比如,有个叫Nano Banana Pro的多模态模型。它专门处理一些很精细的工作。调用它一次的费用,比调用普通文本模型贵120倍。

但是,照样有很多人排队用。为什么?因为它解决的问题很具体,而且价值很高。比如,帮金融公司做风控,帮制药公司筛选药物分子,或者帮律师审核合同条款。这些工作,通用的AI干不好,必须得用这种专门训练过的“专家”AI。它们服务的客户虽然少,但每个客户花的钱都很多。这样也能赚大钱。

B端AI的“幻灭”与“反转”

说完了个人应用,再看看企业这边。企业用AI的情况,现在不太好。可以说,大部分都失败了。有个数据说,95%的企业AI项目最后都搞砸了。这个阶段叫“幻灭低谷期”。

很多公司老板一开始很激动,花了很多钱。结果发现,公司的业务数据太乱了,AI根本没法用。或者,做出来的AI系统,跟公司原来的工作流程对不上。最后搞出来的东西,还不如人工方便。

但是,这种情况快要变了。预计到2026年下半年,会有一个“V型反转”。转机在哪?在于统一标准。等行业内把数据格式、接口标准都统一之后。AI就能像一个标准零件一样,很方便地接到公司的系统里。那时候,AI在医疗、电信、制造这些行业里,就会真正派上用场,从一个概念变成一个工具。

合成数据:AI自己给自己“造粮食”

AI训练需要大量数据,就像人要吃饭一样。之前大家一直很担心一个问题:真实世界的高质量数据,差不多到2026年就要被AI用完了。到时候AI没东西学了怎么办?

结果AI自己解决了这个问题。它学会了“自己造粮食”,也就是合成数据。

它的工作原理是这样的。既然真实数据不够,AI就在电脑里建一个虚拟世界。然后在这个虚拟世界里,模拟出各种各样的情况,让另一个AI去学习。

英伟达公司的一个模型,就是这么干的。它训练用的数据,有98%都是AI自己造出来的。效果一样很好。理想汽车也是个好例子。他们训练自动驾驶,以前要靠测试车在真实马路上跑。跑一公里,收集数据的成本是5块钱。现在,他们主要用电脑模拟各种极端路况,比如暴雨天、深夜山路。成本直接从5块钱降到了5毛钱。省了90%的成本,效率还更高。

推理优化:使用AI的成本雪崩

最后这个趋势,决定了AI到底能普及到什么程度。就是使用AI的成本,正在飞快下降。这个使用成本,行话叫“推理成本”。

你可以这么理解。训练一个大模型,好比是建一座核电站,投资巨大,只有大公司玩得起。而推理,就是我们每个人每次用电时交的电费。如果电费很贵,大家就用不起。

过去18个月,这个“电费”降了多少?答案是,降低了280多倍。

这是一个很夸张的数字。它意味着,那些以前只有大公司服务器才能跑的顶级AI模型,很快,在你自己的个人电脑上就能跑了。甚至就是市面上的普通游戏显卡,一年后就能带得动今天最强的模型。

当成本不再是问题,就会有无数的程序员、小公司,甚至学生,都能用上最好的AI能力,去做各种各样的应用。到时候,AI就不再是少数公司的玩具,而是像我们现在用水用电一样方便和便宜。

© 版权声明

相关文章

暂无评论

暂无评论...