Anthropic 又发新模型了。
Claude Opus 4.7 正式上线,模型 ID 是 claude-opus-4-7。不是 5.0,是 4.7。但别看到这个数字就觉得是小升级。
Anthropic 自己的说法是,这仍然是 Opus 系列的增量升级,基于 4.6 来的。
不是最强。Anthropic 内部最强的模型叫 Mythos,那个才是真正的大Boss。但 Mythos 因为安全考虑暂时还没放出来,所以 4.7 就是你们目前能用到最好的 Opus 了。
好了,说回 4.7 本身。
先说定价,这个大家最关心。
$5/$25 per million tokens,和 4.6 完全一样,没有涨价。这点还是预期内的。
模型已经在 Claude.ai、API 和 Claude Code 里全量上线了,不用等。
那 4.7 到底升级了啥?
第一,长时任务处理更严谨了。
官方原话是能更好地处理长时间运行的任务,减少监督需求。说人话就是,你可以「set it and forget it」,把最难得工作丢给它然后去睡觉。
这个我太有体感了。之前用 4.6 跑长任务,到后期经常需要人工盯着,检查它有没有跑偏。4.7 据说是改善了这个,我自己还没跑满血的测试,但看社区反馈,这个改进是真实的。
第二,指令遵循更精确。
严格按照指示执行,输出之前自己先验证一遍再报告。
这个听着简单,但其实很重要。AI 最大的一个问题就是「听懂了但做歪了」,自己加戏自行其是。4.7 据称在这个方面有改善,我自己是比较期待实测数据的。
第三,视觉能力大幅提升。
高分辨率视觉支持,解像度大幅提高。适合图像、界面、资料这类工作。
这个升级方向倒是挺实在的。之前 Claude 的视觉能力说实话不是业界最强,尤其在图像理解这块,现在看起来是要补这一块了。
第四,API 和 Claude Code 侧的新功能。
新的 effort level(比如 xhigh)、Task budgets(beta)、还有一个 /ultrareview 命令用于深度代码审查。
Claude Code 也同步更新了,官方说体验更流畅了。我看 Twitter 上已经有人在晒 ultrareview 的截图了,确实有点东西。
第五,配套工具:原生 AI 设计工具。
这个是最引爆讨论的。
Anthropic 搞了一套纯文本提示就能生成完整网站、演示文稿、落地页和可编辑 UI 文件的工具。没有设计基础也能用,输出直接就是可以交付的文件。
这个新闻一出来,设计师们应该睡不着了吧。
但坦率的讲,这个事情吧,说了很久了。不是 Anthropic 第一个做的,也不会是最后一个最终做成的。但这次是 Anthropic,而且是在 Claude Code 的生态里做这件事,意义就不太一样了。
发布之后 Twitter/X 上的反馈两极,但整体偏积极。
正面的是大多数,尤其开发者群体。有老哥直接贴数据,说 Opus 4.7 的 agentic coding 达到了 87.6%,agentic search 79.3%,tool use 77.3%,reasoning 94%+,整体能力非常均衡。这个数字一出来社区反响很大,因为之前很多人还停留在「Claude 擅长思考但工具调用一般」的老印象里,这个数据直接把印象给破了。
负面或者混合的声音也有。
有少数用户认为「这是 Anthropic 发布过最差的模型」,但这种声音样本比较少,可能是早期 bug 或者个人期望差异。有一点是确定的,这个模型在某些 thinking block 或者某些测试里确实可能有表现一般的地方,但这不代表整体水平。
另外的担忧是,Anthropic 可能引入了更严格的身份验证,这个在部分报道里被提出来了,引发了一些隐私方面的讨论。以及在算力成本压力下,这种迭代速度能不能持续,也有人质疑。
我自己的观察是这样的:
4.7 在长上下文(仍是 100 万 tokens)、自主代理任务和精确执行上进步是明显的。如果你是一个开发者,或者你在做自动化和复杂工作流,这个模型值得关注。
但是不是真的「step-change」?我觉得还是需要更多的实测数据来支撑。
设计工具这个冲击,现在判断冲击力有多大还太早。但有一点是确定的,云端员工式的自动化应用,会因为这一波继续加速。
目前这些反馈都还是发布后几个小时的即时反应,更多深度 benchmark 和长期使用案例,会在未来几天和几周陆续出来。
如果你已经上手 Opus 4.7 了,有什么个人感受,欢迎来聊。
#Claude上线Opus4.7版本#
