DeepSeek 今天正式发布了 V4 预览版,同步开源。这次更新有几个值得关注的点。
首先是百万上下文成为标配。DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合他们自研的 DSA 稀疏注意力技术,实现了 1M(一百万)上下文长度,同时大幅降低了计算和显存的需求。从这个版本开始,百万上下文将是 DeepSeek 所有官方服务的标配,这个表态很有分量。
模型分两个版本。V4-Pro 是旗舰版,Agent 能力大幅提升,在 Agentic Coding 评测中达到了开源模型最佳水平。DeepSeek 内部员工已经在用它做日常编程,反馈是使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但和 Opus 4.6 思考模式还有差距。世界知识方面大幅领先其他开源模型,仅稍逊于 Gemini-Pro-3.1。数学、STEM、竞赛型代码的推理性能则比肩世界顶级闭源模型。V4-Flash 是轻量版,推理能力接近 Pro,但世界知识储备稍弱,胜在更快更便宜,简单任务上和 Pro 旗鼓相当,复杂任务上有差距。
API 方面,两个版本都已上线,支持 OpenAI 和 Anthropic 两种接口格式,都同时支持思考模式和非思考模式,思考模式还可以调节强度。值得注意的是,旧的 deepseek-chat 和 deepseek-reasoner 接口名将在三个月后(2026 年 7 月 24 日)停用,目前分别指向 V4-Flash 的非思考和思考模式。
另外 V4 还专门针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品做了适配优化,这个动作很聪明,说明 DeepSeek 很清楚现在的竞争焦点已经从「模型跑分」转向了「在真实 Agent 场景里好不好用」。
总的来看,DeepSeek 这次的核心叙事是两个词:百万上下文和 Agent 能力。前者通过架构创新把长上下文的成本打下来变成标配,后者直接对标 Claude 和 GPT 在编程智能体领域的表现。开源加上这个性能水平,对整个行业的价格和能力基线又是一次向下施压。
#DeepSeekV4发布##科技先锋官##How I AI#
