庚白星君 26-05-08 02:06
微博认证:雪球用户 财经知识分享官 财经观察官 财经博主 微博原创视频博主

短期缺芯片,长期缺能源,永远缺存储

2025年底,孙宇晨在社交媒体上说了一句话:“短期缺芯片,长期缺能源,永远缺存储。”
这15个字,揭示了AI算力产业链最残酷的物理现实。AI不是抽象概念,它更像一种新型劳动力。硅基劳动力只要一件东西——稳定、持续、低成本的电力。电力变成算力需要芯片,算力变成智能需要存储。
在AI推理和Agent时代,Token消耗量呈指数级增长。Token消耗量本质上反映了企业对AI的利用深度和组织效率,这是芯片、能源、存储需求爆发的底层驱动力。这三个瓶颈,层层递进,每一个都是万亿级别的投资机会。
短期缺芯片:GPU、CPU和HBM都是“卡脖子”
AI算力产业链三重瓶颈时间线
AI时代,芯片的瓶颈不再局限于单一组件。高性能CPU与GPU/HBM同样面临供应压力,共同构成了AI算力基础设施的短期挑战。
GPU与HBM:AI算力的核心驱动
核心矛盾是GPU不够,以及GPU需要HBM,HBM的先进封装产能(TSV通孔、堆叠工艺)是物理硬约束。
H100需要6颗HBM3,每颗80GB;B200需要8颗HBM3E,每颗96GB。一颗AI服务器的HBM容量,是传统服务器的20-30倍。
HBM产能被三家垄断:SK海力士(2026年产能已售罄)、三星(HBM3E量产爬坡中)、美光(2026下半年才能放量)。
OpenAI CFO Sarah Friar透露:15个月前OpenAI基本只和单一巨头合作,现在已经引入AMD、Cerebras(超100亿美元合作,750兆瓦推理算力)。
CPU:AI服务器的"大脑"同样紧缺
AI服务器不仅需要强大的GPU进行并行计算,还需要高性能CPU作为"大脑"进行数据处理、任务调度和系统管理。随着AI模型规模的扩大和推理需求的增长,数据中心对CPU的需求同样呈指数级增长。
例如,英特尔和AMD等厂商的高端数据中心CPU,也面临着供不应求的局面,其产能和交付周期成为AI基础设施建设的又一制约因素。
长期缺能源:AI数据中心正在吃掉一个国家的电力
孙正义、OpenAI、甲骨文、MGX联合投资的“星际之门”(Stargate),规模5000亿美元。
美国2024年数据中心总电力消耗约150TWh。一个Stargate级别的超大规模数据中心集群,单项目就可能消耗50-100TWh。美国电网现有冗余容量大约只有100-200TWh。
OpenAI CFO Friar直言:“数据中心不是一天建成的,如果没有提前数年规划,到需要的时候就拿不到算力。”拿不到算力的底层原因,是拿不到电力。
美国能源部预测:到2028年,AI数据中心电力需求将占美国总电力消耗的8-12%。科技巨头已经恐慌性抢电:微软投资小型核反应堆(SMR),谷歌锁定风电/太阳能,亚马逊自建太阳能农场+储能系统。
美国数据中心电力消耗预测
永远缺存储:从周期品到AI基础设施的蜕变
存储正在经历惊人的涨幅。8GB eMMC从2025年初的$1.5涨到2026年初的$20,涨幅达13倍。三星、SK海力士、美光的毛利率已经飙到80%以上,这说明这不是周期,是结构性供需失衡。
存储价格暴涨与原厂毛利率飙升
群联董事长潘健成的判断更直接:“AI数据产生速度百倍推进,存储原厂产能扩张上限最多50%。”群联的实际困境是:客户存储需求100%,群联能供应30%,缺口70%。
潘健成提出了“压缩悖论”:压缩技术不会缓解存储需求,反而加速扩大需求。因为存储成本降低,使用量增加,产生更多数据,需要更多存储。这是一个自我强化的正反馈循环。
为什么这三个瓶颈必须一起看
孙宇晨的15个字,本质上讲的是AI算力产业链的“三重门”:
第一重门是芯片(算力本身)第二重门是能源(算力的燃料)第三重门是存储(算力的沉淀)
如果只投芯片,不看电力:数据中心的电力瓶颈会在2027-2028年成为硬约束,芯片产能释放不出来。
如果只投电力,不看存储:AI产生的数据没有地方存,算力白浪费。
如果只投存储,不看芯片:没有GPU/HBM,存储就是仓库里的货物,没有流动。
三扇门同时打开,AI才能运转。
结语
AI的第一阶段(模型训练)已经让芯片和存储供不应求,第二阶段(大规模推理+全民AI交互)带来的Token消耗量暴增,会让电力和存储的缺口更大。
投资这三个瓶颈,不是在赌某个公司,是在押注AI产业链的物理约束。物理约束不会骗人。

发布于 上海