Roblox 产品负责人 Peter Yang 最近写了一篇文章,聊了聊 AI 订阅制的未来,读完挺有感触的。
事情的起因是 Anthropic 突然封杀了 OpenClaw 对 Claude 订阅的接入。很多用户每月花 200 美元买的"无限量"套餐,结果跑 AI 代理一天就烧掉了几千美元的 token,平台根本扛不住。Anthropic 一方面是算不过来这笔账,另一方面也在自己搞个人助手,想把用户留在自家生态里。
他给出了几个应对办法:可以把模型换成更便宜的 Sonnet,成本能降好几倍;也可以用 ChatGPT 订阅跑 GPT 5.4;最硬核的方案是用 Ollama 在自己电脑上跑开源模型,比如 Qwen 3.5,16GB 内存的 MacBook 就能带动,数据全在本地,隐私也有保障。
文章里最有意思的一个观点是,他把现在的 AI 订阅比作当年 Uber 和 Lyft 的烧钱补贴。当年打车平台为了抢市场疯狂压价,上市之后价格直接翻倍。OpenAI 和 Anthropic 现在也在做一样的事,都瞄着 2026 年底上市,到时候投资人要利润,200 美元的套餐很可能涨到 500 美元以上,或者限制更多。所以他认为 AI 的使用成本未来大概率是涨的,趁早学会跑本地模型才是正经事。
另外他也指出中国的开源模型只落后美国大概半年,但价格便宜了 10 到 20 倍。DeepSeek、Qwen、Kimi 这些模型在很多基准测试上已经接近美国顶尖水平,硅谷不少公司也在悄悄用中国的开源模型。中国的策略很清晰:把基座模型免费放出去,让全球开发者形成依赖,再通过云平台赚推理的钱。
简单说,AI "自助餐"的好日子可能快到头了,早做准备总没错。
#科技先锋官##How I AI#
