源深路炒家 26-02-23 18:04
微博认证:投资内容创作者 AI博主

这两天市场在反复讨论OpenAI到2030年6000亿美元算力支出的问题,很多人第一反应是“比此前1.4万亿美元的口径低了,是不是扩张降速”。但把时间区间对齐之后,这个结论并不成立。

此前提到的1.4万亿美元,对应的是更长周期(约8年)的基础设施承诺;现在披露的是未来4–5年约6000亿美元的计算支出目标。简单做一个年化拆分,1.4万亿/8年≈1750亿美元/年;6000亿/5年≈1200亿美元/年。如果按4年算是1500亿美元/年。区间差异本身不算激进收缩,更像是时间窗口不同导致的表观落差,而不是战略收缩。

真正值得重视的,其实不是6000亿还是1.4万亿,而是报道里提到的盈利结构变化——OpenAI 2024年毛利率约40%,2025年预计降至33%。

这两个数字意义非常清晰:

第一,竞争在加剧。
毛利率从40%下滑到33%,说明推理成本、算力采购成本、模型训练与部署成本在收入中的占比上升。大模型能力提升带来算力密度上升,同时价格竞争、API价格下调、企业级客户议价能力增强,都会压缩毛利。

第二,更关键的是会计属性问题。
这实际上验证了我去年反复强调的一个核心逻辑:算力支出本质上不是传统意义上的Capex,而是COGS,是运营成本(Opex)的一部分。

如果算力是一次性资本开支,那么随着数据中心建设完成,理论上边际成本会快速下降,利润率会显著扩张。但现实是:
• 模型每一代都更大
• 推理量持续增长
• 客户调用频率不断上升
• 模型能力提升带来更高单次计算消耗

算力不是“建完就结束”,而是类似云服务的用量成本,是随收入增长同步扩张的成本结构。它更像电费,而不是厂房。

因此,算力需求的逻辑是“结构性持续需求”,而非“周期性建设高峰”。
未来可能出现的是增速下降,但不是需求塌陷。因为只要AI应用渗透率提高,推理量就会增长,而推理本身就是持续消耗算力的行为。

如果你想清楚这一点,很多分歧就会消失:
• 这不是传统半导体库存周期
• 也不是一次性数据中心爆发
• 更不是简单的Capex高峰

它是一个随着AI渗透率提升而长期存在的Opex型算力需求曲线。

所以真正的判断点,不在于6000亿还是1.4万亿,而在于两个变量:

1)单位算力成本下降速度
2)AI收入增长能否覆盖算力成本扩张

毛利率从40%到33%的变化,其实是在告诉市场:
AI商业模式已经进入规模化阶段,但利润弹性不会是线性放大的,而是需要效率提升来对冲算力消耗。

理解这个结构,才能真正理解算力产业链的长期逻辑。#人工智能[超话]#

发布于 上海