我去年年底,想做个2025年的回顾。本来计划搞个“年度十大事件”。但写来写去,发现所有事情都绕不开AI。其他热点跟AI一比,都显得小了。最后我决定,就只谈AI。
这几年AI发展太快了。快得有点不真实。好像昨天我们还在笑手机上的语音助手是“人工智障”。今天,ChatGPT、DeepSeek这些东西,已经强到让人害怕。
我们甚至开始盲目相信AI。
比如,一个模型明明在胡说八道。我们的第一反应,不是去质疑这个模型。而是反思自己,是不是我的问题提得不好?这种心态转变很可怕。我们已经被AI“驯化”了。

而且,AI生成的东西已经到处都是了。你刷朋友圈看到的文章配图。短视频平台上的很多视频。很多都是AI做的。我们适应得太快了。快到忘了ChatGPT出现其实也没多久。
这种变化也体现在资本市场上。
过去两年,全球的钱都在追逐AI概念。这已经不是普通的投资了。说得直接点,要是把AI公司的贡献从美股指数里拿掉。那整个K线图估计会很难看。全球经济现在就靠AI这根独苗撑着。
钱不光在股市里流动。也流向了实体产业。
全球都在搞一场“基建竞赛”。在沙漠里建巨大的数据中心。为了给这些数据中心供电,又去建新的电网。花钱的单位都是千亿美元。
在地缘政治层面,AI更关键。
英伟达的高端芯片,现在就是硬通货。我们看到新闻,这些芯片怎么通过各种渠道,绕过限制被运来运去。也看到,一家公司的芯片出口许可,竟然能成为两个大国谈判桌上的重点。这说明,AI早就不是一个简单的技术问题。
但是,市场的风向也在变。
从2025年下半年开始,那种闭着眼睛买AI股票的阶段过去了。很多人开始担心“AI泡沫”。大家开始认真算账。投了这么多钱建数据中心,买芯片。但靠AI软件赚回来的钱,还很少。这个窟窿什么时候能填上?
不过,我认为这和以前的“郁金香泡沫”不一样。
这是一次真正的生产力变革。它在改造我们真实的世界。所以长期看,问题不大。就算有泡沫,这些钱也是投在了推动技术进步上。总比把钱花在战争里要好。
在复盘的过程中,我发现自己的知识很零碎。
AI行业变化太快。过去制造业几十年的迭代,在这里被压缩到几个月。新概念一个接一个。如果还用去年的眼光看现在,肯定会看不懂。
而且,AI产业的底层逻辑也在变。
以前是“大力出奇迹”。谁的算力多,谁的参数规模大,谁就厉害。但这条路快走到头了。物理极限摆在那里。比如芯片的功耗和散热,就是“能源墙”。数据传输的速度,就是“内存墙”。
所以,我决定慢下来,重新梳理一下。
我想建立一个更完整的框架,来看待整个AI产业。把AI想象成一个数字生命体。这个生命体的生存,依赖四个核心的东西:算力、算法、数据、能源。
AI产业链 = 算力 + 算法 + 数据 + 能源
下面我们一个一个说。
一、算力:AI的骨骼与肌肉
算力决定了AI的力量有多大。
它的核心是芯片。比如英伟达的H100、B200。这些芯片就是AI的“肌肉”。训练一个大模型,需要成千上万张这样的芯片,连续跑好几个月。
这里有一个清晰的步骤。
第一步,芯片设计。这是最上游的环节。像英伟达、AMD这些公司负责设计。
第二步,芯片制造。台积电这样的公司,根据设计图把芯片造出来。
第三步,把芯片集成到服务器里。像富士康、工业富联这些公司做这个。
第四步,把成千上万台服务器,组成一个数据中心。
这个过程,每一步都很花钱。
举个例子。一家公司想训练自己的大模型。它可能要去租用云服务。比如亚马逊的AWS或微软的Azure。租用一千张H100芯片一年的成本,大概就要几千万甚至上亿美元。这就是算力的门槛。
但是,现在算力遇到了瓶颈。芯片性能提升变慢了。功耗却越来越大。所以大家开始在其他地方想办法。比如用更快的网络(NVLink)把芯片连起来。或者用新的冷却技术给芯片降温。
二、算法:AI的灵魂与智能
光有肌肉不行,还得有大脑。算法就是AI的大脑。
前几年,主流的算法思路是“Scaling Law”,也就是规模法则。大家认为,模型参数越多,数据喂得越多,模型就越聪明。GPT-3有1750亿参数。后来很多模型都号称万亿参数。
但是,这条路现在也遇到问题了。
参数规模翻一倍,模型能力可能只提升一点点。但训练成本却指数级上升。这不划算。
所以,新的算法架构出现了。
比如现在很流行的MoE(Mixture-of-Experts)架构。它的工作原理是这样的:模型内部有很多个不同领域的“小专家”。来一个任务,系统会先判断这个任务属于哪个领域。然后只激活最相关的几个“专家”来解决问题。
这样做的好处很明显。
它不用每次都启动整个巨大的模型。可以帮你省下算力。也降低了推理成本。比如你问一个关于历史的问题,模型就调用“历史专家”。问一个编程问题,就调用“代码专家”。这样效率更高。
三、数据:AI的血液与神经
数据是喂养AI的“食物”。
模型的聪明程度,直接取决于它吃了什么样的数据。如果给它吃的是互联网上的“垃圾食品”,那它也只会说一些不靠谱的话。这就是“Garbage in, garbage out”。
现在,高质量的数据变得稀缺。
互联网上的公开数据,基本上都被各大公司用过一遍了。而且里面充满了错误和偏见。
怎么办呢?有两个办法。
第一个办法,是搞“合成数据”。它的工作原理是:用一个已经很强的AI模型,去生成大量高质量、多样化的数据。然后用这些新数据,去训练下一个更强的模型。这有点像“自己教自己”。
第二个办法,是利用“私有数据”。比如,一家公司有大量自己业务相关的、不对外公开的数据。这些数据质量高,针对性强。用这些数据训练出来的模型,在特定领域会很专业。比如医疗领域的影像数据,法律领域的卷宗数据。
数据的竞争,已经从“量”的竞争,转向了“质”的竞争。
四、能源:AI的阳光与空气
这一点最容易被忽略,但可能最致命。
AI是个“电老虎”。无论是训练还是日常使用,都消耗巨大的电力。一个大型数据中心,一年的耗电量,可能比一个中等规模的城市还多。
举个具体的例子。
英伟达最新的GB200超级芯片平台,一个机柜的功耗就超过100千瓦。一个数据中心里,可能有几百上千个这样的机柜。为了给它们散热,还需要额外的空调系统,这也要耗电。
所以,能源供应成了AI发展的一个硬约束。
现在,科技巨头都在为能源发愁。微软、谷歌、亚马逊,都在全世界范围内签长期的绿色能源购买合同。比如直接投资建设新的风电场和光伏电站。
甚至,有人已经开始严肃讨论。未来要不要在数据中心旁边,建一些小型的核反应堆,来提供稳定、清洁的电力。
没有足够的能源,再强的算力、再好的算法,都是一句空话。
总结一下。
算力、算法、数据、能源。这四个板块互相影响,共同构成了AI这个庞大的产业。看懂了这四个方面,也就看懂了AI的现在和未来。