我们平时跟AI聊天,感觉很简单。
你问一个问题,它给一个答案。
但是,你可能不知道,就因为你多问了一句,或者客气地说一句“谢谢”,AI公司可能就要多花不少钱。
这些小小的成本,堆在一起,可能就是几千万美元。
这笔钱到底花在哪了?答案是电。AI的运行,背后是一整个数据中心在撑着,这东西我们叫AIDC,就是人工智能数据中心。

它的工作原理是这样的:
第一步,你在对话框里打字,比如“帮我写一首关于春天的诗”。
第二步,你的问题通过网络,传到一个很远的地方,那个地方就是数据中心。
第三步,数据中心里成千上万台服务器立刻开始忙活。它们里面的GPU芯片高速运转,开始找资料、做计算、最后生成一首诗。
第四步,服务器把这首诗,再通过网络传回你的电脑屏幕上。
整个过程可能不到一秒钟。但是,这个过程每天要重复几亿次,甚至更多。
服务器高速运转,就需要消耗巨大的电能。
所以,AI烧钱,很大程度上就是在烧电。
到底有多烧电?我们看个数据。
有报告说,到2025年,光是中国国内的AI数据中心,一年就要用掉3600亿千瓦时的电。
这个数字没什么概念?这么说吧,这个用电量占到了我们整个社会用电量的3.5%。而且,这个比例还在涨,两年后可能就到6%了。
再换个更具体的例子。
一个AI数据中心,一天用的电,够一个普通家庭从头用到尾用上1.7万天。
电用得多了,就会产生一个大问题:热量。
你家里的电脑玩久了会发烫,一个数据中心里有几万台服务器挤在一起,7×24小时不停地计算,产生的热量就更吓人了。
如果不把这些热量散掉,服务器就会因为过热而死机,甚至烧坏。
怎么散热?最传统的办法,就是装空调,用冷风吹。
这就掉进了一个死循环。
服务器计算,耗电,产生热量。为了带走热量,就要开大功率的空调。而空调本身,也是一个耗电大户。
结果就是,企业花在电费上的钱,越来越多。赚来的钱,很大一部分都交给了电网。
这就是AI成本居高不下的一个根本原因。
亿万克冷板式液冷
既然用风吹(风冷)又贵又浪费,那能不能换个方法?
比如,直接用水来给服务器降温。
这个想法就是液冷技术。亿万克冷板式液冷,就是其中一种很聪明的方案。
它的工作方式是这样的:
第一步,它不在整个机房里吹冷风,而是把目标对准服务器里最热的几个地方,比如CPU和GPU芯片。
第二步,它在这些芯片上面,贴一块特制的金属板。这个板子叫“冷板”,里面是空心的,有很多细小的管道。
第三步,让冷却液在这些管道里流动起来。液体流过滚烫的芯片,就把热量顺便“带走”了。
这个过程,很像汽车发动机的散热系统。冷却液在发动机里循环,带走热量,保证发动机不会过热。
这种方法的优点是精准。
热量在哪里产生,它就去哪里散热,不浪费一点能源。
而且,用液体散热,效率比用空气高得多。水的导热能力是空气的25倍。夏天你吹风扇和冲个冷水澡,哪个凉快得更快?肯定是后者。
这个方案最大的好处是省钱。
它用的冷却液,可以用中高温的水。这意味着,在一年里的大部分时间,你都不需要开那种轰隆隆响的压缩机来制冷。
直接用外界的自然风,就能把水的温度降下来,这就够用了。
这么一来,光是空调系统的电耗,就能直接降下来80%还多。
算总账的话,一个数据中心用上这套系统,和以前用传统风冷相比,每年平均能省下15%到25%的电。
别小看这个比例。数据中心的电费都是用“亿”来计算的,省下15%,可能就是几千万的利润。
亿万克浸没式液冷
如果说冷板式液冷,是给服务器的核心部件做“精准手术”。
那么,亿万克浸没式液冷,就更直接了。
它的做法是:
第一步,拿来一台服务器,主板、CPU、内存条、硬盘,所有零件都在上面。
第二步,把这整台服务器,直接丢进一个大箱子里。
第三步,往箱子里灌满一种特殊的液体,直到把整台服务器都淹没。
工作就完成了。
你可能会担心,服务器泡在液体里,不会短路吗?
不会。因为它用的液体,是特制的绝缘冷却液,完全不导电,对电子元件很安全。
这个场面看起来很有科技感。一排排服务器,都安静地泡在液体里,没有了风扇的巨大噪音,整个机房可以做到很安静。
它的好处是彻底。
因为服务器的每一个零件,都被液体360度无死角地包裹着。不管哪里发热,热量都会立刻、直接地被液体吸收带走。
这是目前散热效率最高的一种方式。
我们可以用一个指标来衡量数据中心的用电效率,这个指标叫PUE。
PUE的数值越接近1,就说明电力的使用效率越高,浪费掉的电就越少。
过去用传统风冷的数据中心,PUE通常在1.4以上。这意思是,电脑本身用掉1度电,为了给它散热的空调系统,就要用掉0.4度电。这0.4度电,其实就是浪费掉的。
而用上浸没式液冷,PUE可以降到1.05以下。
这几乎是理论上的极限了。意思是,几乎所有的电,都扎扎实实地用在了计算上,只有不到5%的电用在了散热和其他辅助设备上。
这样算下来,总的节能效果能超过54%。
省了一半以上的电,这个效果太惊人了。
而且,它还带来了额外的好处。
因为不需要风扇了,服务器内部的结构可以更简单。也不需要在机柜之间留出通风的通道了。
所以,服务器可以做得更小,摆放得更密集。
在同样大小的一个机房里,原来可能只能放1000台服务器,现在可以放下1500台甚至2000台。
这对那些土地和空间都很宝贵的公司来说,又省下了一大笔建设成本。
总的来说,AI的竞争,表面上是算法和模型的竞争。
但是,到了最后,其实是成本的竞争,是谁能用更低的代价,提供更强的算力。
从这个角度看,谁能先解决好散热和耗电这个大问题,谁就能在这场竞赛里跑得更远。像冷板式和浸没式这样的液冷技术,解决的正是这个最根本的问题。