宝玉xp 26-04-24 11:10
微博认证:前微软Asp.Net最有价值专家 2025微博年度新知博主 科技博主

DeepSeek 今天发布了全新的 V4 系列模型预览版,同步开源。最大的变化是把百万(1M)上下文直接变成了所有官方服务的标配,不分版本、不分价位。

V4 分两个型号:V4-Pro 是旗舰版,V4-Flash 是轻量版。按照 DeepSeek 自己公布的评测,V4-Pro 的推理能力已经追平顶级闭源模型,世界知识仅次于 Gemini-Pro-3.1。

比较有意思的是 DeepSeek 主动拿自家模型去对标 Anthropic:内部员工实际使用 V4-Pro 做 Agentic Coding(让 AI 自主完成编程任务),反馈体验优于 Claude Sonnet 4.5,交付质量接近 Opus 4.6 的非思考模式,但跟 Opus 4.6 开启深度思考后还有差距。这种"主动承认差距"的表述在国内厂商的发布公告里不太常见,某种程度上也说明 Opus 4.6 思考模式已经成了行业的隐性天花板。

V4-Flash 定位经济实惠,推理能力接近 Pro,但世界知识储备少一些,复杂 Agent 任务上也有差距。对大多数日常场景来说够用,API 价格更友好。

技术上,V4 引入了一种新的注意力机制,在 token 层面做压缩,配合自研的 DSA 稀疏注意力,让百万上下文的计算量和显存需求大幅下降。简单说就是:以前百万上下文是"能做但很贵",现在变成了"标配且不加价"。对开发者来说,这意味着可以把整个代码库、完整文档集一次性丢进去处理,不用再费心切分。

另一个实用信息:V4 专门针对 Claude Code、OpenClaw 等主流 Agent 工具做了适配优化。API 同时支持 OpenAI 和 Anthropic 两种接口格式,切换只需要改 model 参数。旧的 deepseek-chat 和 deepseek-reasoner 接口名还能用三个月,7 月 24 日之后停止服务,开发者记得提前迁移。

喜欢他们写的那句话:「不诱于誉,不恐于诽,率道而行,端然正己。」

#DeepSeekV4发布#
官方公众号:http://t.cn/AXx0HiKx

发布于 美国