【当AI学会“深思熟虑”,你的钱包准备好了吗】
Opus 4.6 来了,定价和 4.5 一模一样。但实际运行成本却高出 1.7 倍。原因很简单:它想得更多了。
这是一个有趣的悖论。我们一直希望 AI 能像人类一样深度思考,现在它真的开始“沉思”了,账单也跟着膨胀。与此同时,OpenAI 的 GPT-5.3-Codex 反其道而行,用一半的 token 完成同样的任务。两条路线,两种哲学。
Anthropic 曾经的护城河是什么?先发优势和代码质量。但每一次 GPT-5.x 的迭代都在蚕食这两项优势。如果你纯粹从成本角度考量,OpenAI 已经跑在前面了。
更魔幻的故事发生在某家公司。一位员工用 Opus 生成了 47000 行代码,一次性提交合并请求,token 费用高达 15000 美元。管理层的反应不是震惊,而是欢呼。
当有人质疑如何审查这么庞大的代码量时,答案令人窒息:不用看,学会信任 AI,直接点通过。
这不是段子。当被问及 AI 输出的不确定性问题时,那位推动此事的高级开发者给出了一段充满 AI 腔调的官方回复。讽刺的是,那段回复本身很可能就是 AI 写的。
这里藏着一个更深层的问题:普通用户如何判断模型质量?
你看到的输出背后,有多少是模型真正的推理能力,有多少是厂商临时调高的“思考强度”来庆祝新版本发布?当他们悄悄调整这个参数时,你根本无从知晓。
有人说要依赖基准测试。但公开的基准测试往往更容易被针对性优化。最终的判断标准可能只剩下一个:你想完成的任务,完成了没有?
还有一个流传甚广的传言:Opus 4.6 其实就是 Sonnet 5 换了个名字,这样就能收取五倍的价格。虽然这个说法缺乏实锤,但它揭示了一个行业潜规则。版本号的跃升往往比实际能力的跃升来得更容易。很多时候,所谓的新模型不过是同一个基础模型的不同蒸馏版本。
有人调侃:这就像我那个能力很强但说话特别慢的同事。
也有人一针见血:雇聪明人干活,永远比雇笨人贵。
当 AI 开始收取“思考费”,我们或许该问问自己:我们为之付费的,究竟是真正的智慧,还是精心包装的沉默?
reddit.com/r/singularity/comments/1qxkz8d/opus_46_costs_17x_more_than_opus_45_to_run
