顶级游资章盟主_ 26-03-21 16:18
微博认证:头条文章作者

AI 算力狂飙,为什么燃气发电成了供电最优解?

当下 AI 圈的竞争,早已卷到了算力集群的量级:动辄几万张 GPU 的智算中心密集落地,千亿参数大模型训练成为常态。

但很少有人注意到,支撑 AI 狂奔的核心底座,从来不止是芯片,更是电 —— 而且是一套和传统用电需求完全不同、苛刻到极致的供电方案。

大模型训练中途断电,进度回滚带来的损失动辄数百万至上亿;AI 机柜功率密度达到传统数据中心的 5-10 倍,制冷能耗吃掉了近一半的用电量;算力规模按季度翻倍,可电网扩容建设却要等 2-3 年…… 这些 AI 行业的核心痛点,最终都指向了同一个答案:燃气发电。

AI 要的电,到底有多 “难伺候”?

和传统工业、商业用电,甚至普通数据中心相比,AI 算力对供电的要求,几乎是全维度的升级:

第一是极致的可靠性。AI 训练周期长达数月,供电中断不仅会导致进度归零,还可能损坏高价值芯片,容错率几乎为零;

第二是极速的扩容能力。算力爆发式增长,可电网输变电工程、传统电源建设周期完全跟不上,“有算力指标、无供电容量” 已成行业普遍痛点;

第三是全链条的能耗控制。AI 机柜功率普遍达 20-50kW / 柜,制冷能耗占比飙升至 40%-50%,PUE(能源使用效率)压降难度极大;

很多人对燃气发电的认知,还停留在 “备用电源” 的层面,但事实上,它是目前唯一能同时解决 AI 供电所有核心矛盾的方案,优势是全维度的。

传统数据中心的供电逻辑,是 “大电网 + UPS + 柴油发电机备用”,但这套体系有致命短板:柴油发电机冷启动到满负荷要 10-30 秒,全靠 UPS 撑过过渡期,而 UPS 续航普遍不超过 15 分钟,一旦电网长时间故障,极易引发灾难性后果。

而燃气轮机直接打破了对大电网的绝对依赖:它能实现并网与孤岛模式的无缝切换,具备毫秒级电压频率响应和黑启动能力,日常可以并网带基荷,电网故障时能瞬间切换为独立供电,长期满负荷连续运行,从根源上规避了断电风险。

更关键的是,它能彻底绕开电网扩容的瓶颈。燃气分布式电站可以直接建在智算中心园区内,6-12 个月就能建成投运,完全匹配算力的扩张节奏,真正实现 “算力建到哪里,电源就跟到哪里”。

AI 智算中心的最大能耗痛点,从来不止是服务器耗电,而是制冷。传统模式下,制冷完全靠电力驱动冷水机组,相当于近一半的用电量都花在了降温上。

而燃气发电的核心杀招,是冷热电三联供:天然气燃烧驱动轮机发电,电力直接供给服务器;发电产生的高温烟气,通过余热回收直接驱动制冷机组,为数据中心提供冷源。这套体系实现了能源的梯级利用,综合利用效率突破 80%,是传统燃煤发电的 2 倍。

更直接的价值是,它几乎砍掉了所有制冷用电,能让智算中心轻松满足 PUE≤1.3 的政策红线,甚至能做到 1.1 以内的行业顶尖水平 —— 这一点,是光伏、风电、煤电、核电都无法实现的,因为它们只能提供电力,制冷依然要额外消耗电能。

燃气发电的上述优势,让其成为全球科技巨头的共同选择:

微软在美国多个 AI 数据中心配套建设燃气分布式电站,全面采用冷热电三联供技术,同时推进燃气轮机掺氢改造,为 OpenAI 的大模型训练集群提供稳定供电,其数据中心燃气供电占比持续提升;

谷歌、亚马逊在全球超大规模数据中心中,大规模部署燃气轮机作为主力电源和备用电源,替代传统柴油发电机,同时通过三联供技术压降 PUE,满足其 24/7 小时零碳能源目标;

国内市场:上海、深圳、北京等核心城市的新建智算中心,已将燃气三联供作为标配,商汤科技、阿里云、腾讯云等头部企业的 AI 算力集群,均优先采用燃气分布式能源方案,解决电网容量不足和 PUE 达标两大核心难题。

发布于 江苏