OpenAI 和 Anthropic 的商业模式,本质上已经越来越像“烧钱换算力”的重资产基础设施生意。
两家公司都在冲刺IPO,但核心问题非常一致:算力成本失控。OpenAI预计到2028年仅算力支出就达到1210亿美元,当年亏损仍可能高达850亿美元。Anthropic规模更小,但路径一致——模型能力每提升一代,训练成本都是非线性上升。
一个非常关键的结构是,两家公司都在“定义两套利润”:
一套不包含训练成本(可以盈利),一套包含训练成本(长期巨亏)。本质上,是把训练当作资本开支处理,但现金流是真实流出的。
收入端确实很强,两家公司都属于历史级增长,今年收入预计翻倍以上,且结构正在向企业客户倾斜。但问题在于,推理成本仍然吞噬超过一半收入,同时C端大量免费用户带来显著成本负担。
自由现金流层面,未来几年都将持续大幅为负,高度依赖外部融资。这也是为什么市场在推动IPO制度调整,让这类公司更快进入指数体系,吸引被动资金承接。
所以这一轮AI,本质已经从“软件逻辑”转向“基础设施逻辑”:
算力=资本开支,模型=资产,推理=持续运营成本。
问题不再是“能不能赚钱”,而是:
收入增长能否最终覆盖这个级别的算力投入。
但需要注意,这一类模型预测,很可能已经开始失真。
核心原因在于:模型假设的是“训练驱动增长”,但现实在过去2–3个月已经明显转向“推理+应用驱动”。
2月以来最重要的变化是代码能力的跃迁(coding agents / copilot)。这一类需求具备三个特征:高频使用、强付费意愿、单位算力产出价值更高。同样一单位算力,用在代码场景上的变现效率,明显高于通用对话。
这会带来两个变化:
第一,收入质量提升,企业收入占比加速上升;
第二,推理成本占收入比,有可能下降得比当前模型预测更快。
但底层约束没有改变:训练成本仍然是指数级上升,而且是前置投入。
本质不是模型错了,而是:
短期盈利路径可能被低估,但长期仍然是“算力资本开支驱动”的重资产模式。
一句话总结:
代码是第一个证明AI可以赚钱的场景,但还不是能够覆盖训练成本的场景。#人工智能#
