算力突围的终极战场:当电网与散热逼到极限,太空轨道正在被重新定价
AI算力的焦虑,表面上是芯片不够用,底层其实是“电”和“热”在卡脖子。地面数据中心越建越大,电力需求与散热成本一起抬升,甚至开始反过来约束模型训练与推理的扩张速度。国际能源署在《Energy and AI》报告中给出了一组非常直观的量级:2024年全球数据中心用电约415TWh,而到2030年可能升至约945TWh,增幅超过一倍。 当算力增长从技术问题逐渐变成能源基础设施问题,“把服务器搬到电网旁边”这条路就会越来越拥挤、越来越昂贵。
这也是“太空算力”突然从科幻变成产业叙事的根本原因:轨道上有更直接的太阳能供给条件,也有更极端的低温背景可用于辐射散热,从工程逻辑上天然对冲了地面的两大刚性约束。与此同时,资本市场对“电力缺口”的担忧在快速升温。以投研口径测算,未来几年美国AI数据中心的新增用电需求可能达到数十GW级别,甚至出现明显供给缺口。 当电力成为算力的上限,行业自然会去寻找“更便宜的电、更容易散的热”,轨道于是被视为下一处可开采的算力矿脉。
美国路线呈现出强烈的“巨头主导、工程化先行”特征:一端是云与芯片生态,另一端是发射与星座网络,中间用在轨算力服务把链条串起来。比如Google被曝推进名为Project Suncatcher的计划,试图把分布式卫星集群与自研TPU体系结合,去争夺未来轨道计算的标准与调度权。 SpaceX则更像“基础设施底座”:它掌握低成本发射能力与大规模星座运营经验,一旦算力载荷需要规模化上天,运力与组网就是绕不开的门槛。更激进的创业公司也在抢时间窗口——Starcloud(部分报道中与“太空数据中心”概念绑定)甚至声称已在搭载NVIDIA H100的卫星上完成了在轨训练实验,让“模型不落地、数据不回传”的叙事有了样板工程。 
从产业结构看,美国的优势在于“垂直整合速度”:商用AI芯片与成熟软件生态更容易迁移到航天载荷上,再用工程冗余与辐射防护去适配轨道环境,形成从芯片、平台到服务的闭环。这条路径的关键不在某一次试验能训多大的模型,而在于能否把地面算力产业最强的供应链、开发者生态、云调度体系搬到轨道上,并在发射与运营成本下降的趋势里完成规模化扩张。
中国的路径更强调“国家战略牵引下的体系化推进”,并形成了两条相对清晰的落地线路:一条是面向“纯算力网络”的专用计算星座,另一条是更贴近应用的智能遥感与在轨处理。公开报道显示,“三体计算星座”在2025年5月完成首发12星入轨,披露的单星算力达到744 TOPS,并通过100Gbps激光链路实现星间互联,目标指向天基分布式计算与高速组网能力的工程化。 另一条“智能化遥感”路线则把在轨算力直接绑定到灾害监测、应急响应、遥感研判等场景,通过“在轨预处理、下发结果”压缩数据回传与地面处理的时延,把价值落在“更快的响应与更低的链路负担”上。
政策层面,中国也在推动商业航天从项目突破走向产业化协同。多家媒体引用的《推进商业航天高质量安全发展行动计划(2025-2027年)》释放了“高质量+安全”的信号,强调在规范与安全框架下加快产业集聚和能力建设,为星座化应用与配套基础设施提供更明确的政策预期。 这类顶层设计的意义在于,把“上天的算力”从单点技术秀,推进到可复制、可扩张、可监管的产业体系。
综合来看,太空算力并不是简单的“把数据中心搬上天”,它更像一次范式重构:从天感地算走向天感天算,把能源与散热这两条地面硬约束外移到轨道环境中,再围绕发射、组网、在轨运维、辐射可靠性、软件调度与商业场景去重新定价算力。谁能率先把“轨道算力”做成规模化、标准化、可持续的供给,就可能在下一轮AI基础设施竞赛中占住先手。
