楚团长聊聊天 26-04-30 01:18
微博认证:财经博主

AI繁荣最脆弱的一环,谁来付钱

Ed Zitron是个我很喜欢的作者,很有锐度,跟踪ai产业非常紧,有点严肃版阑夕的意思,经常骂AI产业,关键是骂的都很在点子上。

他刚写的这篇文章,我觉得非常值得一度,用AI炼化了一下,供大家参考

一、Copilot涨价,是补贴退潮的信号

文章从 GitHub Copilot 写起。

表面看,Copilot 的变化很容易被解释为产品升级。它不再只是一个编辑器里的代码助手,而变成了一个可以执行长时间、多步骤编程任务的“代理式平台”。用户要让它在整个代码仓库里理解、修改、测试、反复迭代。

这确实是一个不同的产品。

但作者认为,微软的说法回避了更关键的问题:Copilot 的经济账从一开始就不成立。

过去,用户每月只需要支付一个固定订阅费,就能使用大量模型能力。一个简单问答和一次持续数小时的自动编程任务,在用户账单里可能没有本质区别。但在后台,它们消耗的推理成本完全不同。

这就是生成式AI订阅制的根本错配:用户支付的是固定月费,企业承担的是不稳定、不可控、随使用强度大幅波动的算力成本。

《华尔街日报》曾披露,Copilot 个人用户每月支付10美元,但微软在一些用户身上平均每月亏损超过20美元,个别用户成本甚至达到80美元。也就是说,用户看到的是一个便宜的软件订阅,微软承担的是一张不断膨胀的GPU账单。

这正是文章的第一个核心假设:过去三年,AI产品的普及不仅是因为它们证明了技术,更是因为大型科技公司愿意补贴成本。

一旦微软这样的公司开始把 Copilot 推向按使用量计费,信号就非常强烈。微软是全球最有能力补贴AI算力的公司之一。如果连微软都认为继续补贴不可持续,其他AI公司更没有能力长期维持固定订阅制。

这是整个AI行业从“用户增长阶段”进入“成本暴露阶段”的开始。

二、AI订阅制的幻觉:用户买到是补贴

作者最尖锐的地方,是把生成式AI订阅制定义为一种成本遮蔽。

传统软件订阅之所以成立,是因为边际成本相对稳定。Google Workspace、网盘、办公软件、流媒体服务,都有一定固定成本,但重度用户通常不会把平台的利润率彻底吃掉。

AI不一样。

一个用户可能只是偶尔问几个问题。另一个用户可能上传大量文档,让模型分析、重写、检索、生成PPT。一个程序员可能要求模型通读整个代码库,调用工具,反复测试。两者支付同样的月费,但后台成本可能相差数十倍。

更麻烦的是,大语言模型的工作过程并不稳定。

它可能一次成功,也可能反复出错。它可能准确理解需求,也可能在幻觉里绕圈。用户在订阅制下不会感知每一次失败的成本,因为失败只是“再问一次”。但如果按token计费,每一次模型卡住、误解、胡编、重跑,都会变成真实支出。

这就是作者反复强调的地方:AI公司刻意用“消息数”“请求数”“5小时限制”“百分比进度条”来替代真实token成本。用户知道自己被限流了,却不知道自己到底烧了多少钱。媒体知道某个产品每月20美元,却不知道这个产品背后实际消耗了多少算力。

所以,AI产品看起来便宜,是因为真实价格没有显示在用户面前。

文章用了一个极端但有效的比喻:如果Uber每月20美元让用户坐100次车,每次不超过100英里,同时汽油每加仑150美元,且由Uber承担油费,那么用户当然会觉得这是一项伟大发明。但有一天Uber告诉用户,月费照收,汽油另算,用户就会觉得自己被背叛。

生成式AI正在发生的,正是这个过程。

用户第一次接近真实价格。

三、token成本没有自然下降,反而被“推理模型”重新抬高

AI行业过去有一个隐含假设:模型使用成本会随着技术进步快速下降。

这也是资本市场愿意给AI基础设施高估值的一个前提。今天烧钱没关系,明天模型更便宜、芯片更强、推理效率更高,单位成本会被技术进步压下去。只要用户规模足够大,未来利润自然会出现。

作者认为,这个假设至少到目前为止并没有兑现。

原因在于,模型不是静态产品。旧模型可能变便宜,但新模型更复杂。尤其是所谓“推理模型”,会在后台消耗更多token,进行更多中间步骤,调用更多工具。用户看到的是回答更聪明,企业承担的是推理成本更高。

这意味着,AI能力提升并不自动带来成本下降。相反,越强的模型可能越贵,越复杂的任务可能越烧钱。

从投资角度看,这一点很关键。

AI行业过去的叙事是:需求爆发,成本下降,规模效应出现,利润释放。

而这篇文章提出的反向假设是:需求爆发,使用复杂度上升,推理成本同步上升,利润迟迟不出现。

如果这个判断成立,那么AI行业的问题就不是“短期亏损换长期垄断”,而是“每一次产品变强,都可能让成本曲线更陡”,变得更加商业模式破产。

四、企业ROI会成为下一轮压力测试

个人用户对价格敏感,但真正危险的是企业用户。

过去一年,很多公司推动员工尽可能多地使用AI。工程师用Claude Code,销售用Perplexity,咨询公司用ChatGPT,产品团队用各种AI Agent。管理层希望用AI提高效率,资本市场也乐于相信AI能提升生产率。

但文章追问了一个更朴素的问题:到底省了多少钱?

如果一个企业在AI token上的支出已经接近人力成本的10%,甚至未来可能更高,那么它必须证明这笔钱带来了对应的收入增长或成本下降。否则,AI支出就会从“创新预算”变成“利润表压力”。

作者引用了 Claude Code 的成本变化。

Anthropic早期文档曾称,Claude Code 用户平均每天成本约6美元,90%用户每天低于12美元。后来文档改为:企业部署中,平均每名开发者每个活跃日成本约13美元,每月150至250美元,90%用户低于每天30美元。

按每月21个工作日计算,平均每天13美元,意味着每名开发者每月约273美元,一年3276美元;如果每天30美元,就是每月630美元,一年7560美元。

这只是单人。

如果是10人开发团队,每人每天30美元,仅按工作日计算,一年就是75600美元。如果部分月份升到每天50美元、100美元,成本会继续抬升。如果每天300美元,10人团队一年token支出可达756000美元。

这时,问题就变得非常现实:企业愿不愿意为“可能提高效率”支付这样的账单?

在补贴阶段,答案容易被掩盖。因为每人每月100美元或200美元,看起来只是一个软件订阅。但当真实token账单暴露出来,企业就必须开始算ROI。

而ROI是AI叙事里最不好算的一件事。

工程师是否真的写代码更快?快了多少?减少了多少人力?提高了多少收入?降低了多少错误?如果模型生成了错误代码,后续调试成本由谁承担?如果模型在复杂任务中反复失败,token费用和时间成本算谁的?

这些问题一旦进入CFO视野,AI的使用逻辑就会变化。

过去是“尽可能多用AI”。

未来可能变成“哪些任务值得用AI,哪些模型可以用便宜版本,哪些场景必须限制使用”。

这对AI行业是根本变化。因为一旦客户从狂热使用进入预算管理,需求曲线就不再是线性外推。

五、AI基建订单的终点,是OpenAI和Anthropic的支付能力

文章最有杀伤力的部分,是把AI数据中心的繁荣重新拉回现金流。

资本市场现在喜欢看AI基建订单。GPU、电力、液冷、光模块、变压器、数据中心,所有短缺环节都被视为确定性最强的资产。逻辑很顺:大模型需求爆发,云厂商资本开支上升,数据中心扩张,硬件订单兑现。

但作者认为,这条链条少问了一个问题:最终谁为这些算力付钱?

数据中心并不是抽象的基础设施。它是极端昂贵、重资产、高折旧、强融资依赖的生意。

文章引用TD Cowen的估算:AI数据中心每兆瓦关键IT设备成本约3000万美元,数据中心容量成本约1400万美元。换句话说,每100MW约对应44亿美元总成本,其中相当部分流向英伟达GPU。

一个100MW数据中心,实际可计费关键IT负载可能只有85MW。按每兆瓦年收入1250万美元计算,年收入约10.63亿美元。看起来不错,但成本开始吞噬利润。

电费约5540万美元,维护、人力和设备替换等运营成本按收入12%估算约1.28亿美元,托管费约1.33亿美元。再加上31.26亿美元IT设备按六年折旧,每年折旧约5.21亿美元。这样算下来,在100%出租、100%正常运营的完美状态下,年利润约1.686亿美元,毛利率约16.7%。

这已经不是一个特别好的生意。

如果数据中心延迟一个月投入运营,就会产生约1.02亿美元无法收回的成本,毛利率降至约6.6%。

如果建设和GPU采购使用债务,情况更糟。假设用80%贷款、6%利率,第一年只付息也要约1.68亿美元。第一年毛利率可能降至约5.19%。一旦开始还本金,每年偿债约6.49亿美元,毛利率可能转为负40%。

这套推演的关键是揭示一个事实:AI数据中心不是天然印钞机。它要求极高的利用率、稳定租户、准时付款、低融资成本、设备不过快过时。任何一个环节出问题,经济账都会迅速恶化。

而最大的问题在于,租户是谁。

大量AI算力需求最终指向 OpenAI 和 Anthropic。它们本身仍在亏损,且未来几年还需要持续融资。如果这些公司无法持续融资、无法实现收入高速增长、无法把用户转化为足够高的付费能力,那么它们就无法支撑已经签下的算力合同。

这就是AI基建订单最脆弱的地方:它看起来是硬件公司的确定收入,实质上依赖少数亏损AI公司的未来融资能力。

六、Oracle与Stargate:AI资本开支的极端样本

文章用Oracle的Stargate Abilene项目作为极端案例。

Stargate Abilene 是一个8栋楼、总规模1.2GW、关键IT负载约824MW的数据中心园区,目标客户是OpenAI。作者估算其总成本约528亿美元。Oracle预计该项目每年可产生约100亿美元收入。

如果项目完全按计划推进,OpenAI准时付款,容量快速投产,模型里可以得到约37%的毛利率。这个数字看起来比前面的100MW数据中心好得多。

但问题在于,所有前提都必须同时成立。

项目进度已经落后。原本市场预期更快投产,但截至文章所述时点,只有两栋楼真正运营并产生收入,第三栋楼设备尚未完全到位。Oracle称200MW已经运营,但这距离整个1.2GW园区还有很长距离。

更大的问题是,Oracle的未来现金流高度依赖OpenAI付款能力。

文章进一步推演:OpenAI要支付包括Oracle、Microsoft、Amazon、Google、CoreWeave等合作伙伴在内的算力合同,未来四年需要通过收入、融资和债务筹集约8520亿美元。这要求它的业务以极高速度增长,到2030年大致增长十倍,并最终走向现金流转正。

而OpenAI的收入预测本身极其激进。按照泄露预测,到2030年前,OpenAI累计收入可能达到6730亿美元,同时仍需要烧掉巨额资金。作者讽刺地指出,这意味着OpenAI未来几年要达到接近台积电、Meta、微软级别的收入规模。

这不是一般的增长假设。

这是一个宏大的资本闭环:Oracle借钱建设数据中心,OpenAI承诺购买算力,OpenAI再依靠未来收入和融资支付Oracle,投资者继续相信AI需求会爆发,于是给OpenAI和相关基础设施融资。

只要信念存在,链条可以继续。

一旦OpenAI增长低于预期,或者融资环境收紧,或者企业客户不愿承担真实token成本,这个闭环就会出现断点。

作者最担心的,正是这个断点。

七、AI算力供给的真正问题,谁来消化

文章还给出了一个更宏观的数字。

据称到2028年底将建设114GW数据中心容量,但真正处于建设状态的只有15.2GW。即便只看这15.2GW,假设PUE为1.35,对应关键IT负载约11.2GW。按每兆瓦年收入1400万美元计算,需要约1568亿美元年度GPU租赁收入,才能支撑这些数据中心的经济性。

如果看全部114GW,所需年度算力收入将达到1.18万亿美元。

这个数字的荒诞之处在于,目前最大的AI算力客户仍是少数几家公司。CoreWeave作为最大的neocloud之一,2026年收入预期也只是120亿至130亿美元。而整个行业已经在为数千亿美元乃至万亿美元级别的未来算力收入做资本开支。

这就是原文最重要的反问:这些算力到底卖给谁?

如果客户是超大规模云厂商,它们部分是在把资本开支移出资产负债表。如果客户是AI创业公司,它们大多仍不盈利。如果最终客户是企业,则企业必须证明AI带来的收入或效率足以覆盖真实token成本。

这三层需求,都不是无风险需求。

AI基建繁荣之所以危险,不在于没有订单,而在于订单背后的支付链条过于集中、过于依赖未来融资、过于依赖尚未验证的ROI。

这与中国投资者理解的很多周期行业并无本质不同。

订单高增长不等于现金流安全。产能紧缺不等于长期利润。下游客户融资能力,往往比短期需求更重要。

发布于 美国