梁赛 25-11-09 16:27
微博认证:AI博主

2026年可以关注系列:国产AI算力中心之液冷。
我最常被问到的问题就是:还有什么板块是处于低位,很少人关注的?

处于低位的其实很多,一篇文章写不完,我先写一个小板块试一下,如果反馈可以,我就续写成一个系列《2026年可以关注系列》。

这次的小板块只聊液冷。

液冷火了不止一两天。由于之前液冷主要蹭达链的热度, 因此纯种柯基和老黄女婿不在此次讨论的范围。

今后可以重点关注国内 AI 算力中心给液冷带来的机遇。

液冷主要是两大因素在推动:一个是算力需求提升,另一个是政策硬性要求。

芯片功耗越来越高,起步就是几百瓦,英伟达H100大约700W,华为昇腾350W左右, 越往后单卡功率越高,一张卡相当于一个小微波炉,这么高的功率,传统风冷根本压不住,芯片一过热就会降频,等于花钱买的算力白白浪费了,因此只有配合降温才能持续稳定工作。

再说说政策这一块,国家对能耗这个事是动真格的。工信部明确要求, 新建大型数据中心的PUE要降到1.3以下。这里解释一下,PUE就是衡量数据中心能效的指标,越接近1越好。传统风冷数据中心PUE一般在1.5以上,根本达不到要求!而液冷技术能轻松把PUE降到1.1左右,甚至能达到1.04的极致水平。

虽然液冷技术前景很好,但目前渗透率还只有5%-8%,风冷还占90%以上的市场。不过预计到2025-2028年,液冷技术的渗透率有望达到30%,这个增长速度相当惊人!

三种液冷技术方案,各有各的优缺点。

1 、冷板式液冷:现阶段最务实的选择

实话实说,在目前三种主流液冷技术中,冷板式是最成熟、应用最广泛的,占了90%的市场份额。它的原理很简单,就是在芯片上安装金属冷板,里面通冷却液来散热。

这种方案最大的优点就是务实。它不需要对现有数据中心做大改,只针对高发热的CPU、GPU芯片进行液冷,其他部件还是用风冷。这种“混合模式”在效果和成本之间取得了很好的平衡,特别适合现有数据中心的改造。

不过,冷板式液冷也有局限性。它毕竟还需要部分风扇,节能效果有天花板。而且管道接头多,存在漏液风险。最重要的是,对于下一代超高密度计算场景,它的散热能力可能还不够。

2.浸没式液冷:散热效果最好但挑战也大

浸没式液冷听起来就很前沿,它是把整个服务器主板直接泡在冷却液里。这又分为单相和相变两种。

坦率讲,浸没式的散热效果是最好的,PUE能降到1.1以下,而且完全不需要风扇,噪音极低。特别是相变浸没液冷,利用液体沸腾吸热,散热效率极高,能满足最极端的高功率密度散热需求。

这种技术目前应用还比较少,只占10%的市场份额。为什么呢?因为它对服务器需要大改,所有部件都要重新评估和冷却液的兼容性。维护也很麻烦,要打开箱体,用机械吊臂来插拔设备,冷却液还会有挥发损失。

但这也是最有前景的一种,一旦液冷供应商与国内几家大的云计算厂商、国家大型数据中心有合作定制,就是深度绑定的机会!

因此可以重点关注阿里云、华为云、腾讯云、百度云、以及几大运营商数据中心的一些战略签约合作的信息!

一些具体的签约信息我会随时转发在梁赛的AI产业信息交流群里,欢迎关注AI产业发展的朋友加入(微博群聊入口在文章末尾)。

2,喷淋式液冷:另一种思路但应用尚少

其实还有第三种技术路线,就是喷淋式液冷,它是把冷却液精准喷洒到发热器件上。这种方案冷却液用量少,安装也比较方便。

不过我了解到,目前这种技术在数据中心应用还很少,主要是因为它需要对服务器做密封,维护时会破坏密封结构。所以咱们今天主要讨论前面两种主流方案。

3 液冷技术面临的挑战不容小觑!

我认为有必要提醒大家,液冷技术虽然前景很好,但目前还面临不少挑战。

首先是成本问题。液冷数据中心初期投资比传统风冷要高20%-40%,特别是浸没式液冷,成本更高。冷却液价格也不便宜,一些高性能冷却液还被国外企业主导。

其次是标准不统一。不同厂家的液冷组件接口、协议都不一样,快速接头、漏液检测等都没有统一标准,用户选择起来很头疼。

另外,还有运维问题。液冷系统的运维需要新的专业知识,传统运维人员不熟悉冷却液管理、漏液处理等。特别是浸没式系统维护复杂,需要专用设备。

4 对液冷技术未来的一些判断

基于目前的趋势,我判断液冷技术会朝着更加智能化、高效化的方向发展。

液冷和人工智能、物联网技术会深度融合,实现智能温控和预测性维护。新材料也会不断涌现,国产冷却液正在打破国外垄断。

特别看好成本下降的趋势。随着市场规模扩大和技术成熟,液冷系统的总体拥有成本正在降低。预计到2026年,国内液冷市场规模将达到113亿元,2027年增至238亿元,两年内翻倍增长!

最后要说,在AI算力需求爆发的背景下,液冷技术正从“可选项”变成“刚需”。咱们国家的企业在这个领域有机会实现弯道超车。

5 总结:理性看待,科学选择

说了这么多,最后给大家几点实用建议:

对于新建的高密度智算中心,特别是AI大模型训练这类场景,浸没式液冷可能是最佳选择,散热效果最好。

对于现有数据中心改造,冷板式液冷更务实,对现有设施改动小,可以分阶段实施。

还是要平衡地说一句:不是所有数据中心都需要上液冷。如果功率密度不高,风冷仍然是不错的选择。

最后总结,在“双碳”目标和AI大潮的双重驱动下,数据中心液冷化已经是大势所趋。

好了,今天就跟大家聊到这里。如果觉得有用,期待你的转发分享!

如果想及时接收AI产业的最新消息,欢迎加入梁赛的AI行业交流群。 http://t.cn/AXAmd8sW

发布于 广东