有点儿西东 26-04-24 13:47
微博认证:AI博主

DeepSeek-V4 正式发布,性能逼近全球顶级闭源模型

DeepSeek V4 终于发布了,而且同步开源。简单看了一圈,这次我觉得最值得关注的其实就两件事:百万上下文,以及 Agent 能力明显往前推了一步。

先说上下文。

DeepSeek-V4 这次用了新的注意力机制,在 token 维度做压缩,再结合他们自己的 DSA 稀疏注意力方案,把上下文长度拉到了 1M。

更关键的不是「数字更大了」,而是他们明确把百万上下文定成了后续官方服务的标配。这个信号挺强,说明他们想把长上下文从「高配选项」做成默认能力。

这次模型分成两个版本。V4-Pro 是旗舰版本,重点还是 Agent 和代码能力。在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。

V4-Flash 则更像是一个更轻、更快、也更便宜的版本。推理能力和 Pro 没有完全拉开,简单任务上应该已经够用了,但遇到更复杂的任务,Pro 还是会更稳一些。这个产品分层其实挺合理的,就是把「最好」和「最划算」分开给。

API 这次也一起上了,而且兼容 OpenAI 和 Anthropic 两种接口格式,这点对开发者会比较友好。两个版本都支持思考和非思考模式,思考强度还能调。

还有一个要注意的细节是,旧的 `deepseek-chat` 和 `deepseek-reasoner` 接口名会在 2026 年 7 月 24 日停用,现在只是暂时分别指向 V4-Flash 的非思考和思考模式。

另外一个我觉得挺现实的动作,是他们专门去适配了 Claude Code、OpenClaw、OpenCode、CodeBuddy 这些主流 Agent 产品。现在大家比的已经不只是模型榜单上的分数,而是放进真实 Agent 工作流之后,到底顺不顺手、稳不稳定、值不值得长期接入。

整体看下来,DeepSeek 这次的重点很明确:一边用架构创新把长上下文的门槛继续往下打,一边把 Agent 和编程场景往更实用的方向推。再加上开源,这一版大概率会对行业里的价格预期和能力基线继续形成压力。

#DeepSeek[超话]##科技先锋官##AI创造营#

发布于 山东