#DeepSeek正式跨入图文交互时代#
2026 年 4 月 29 日,DeepSeek 正式开启“识图模式”灰度测试,标志着其从纯文本 / 代码模型,正式迈入图文交互的多模态时代。
该功能已同步上线网页端与移动端,并与“快速模式”“专家模式”并列。用户无需再进行繁琐描述,只需上传图片,即可完成理解、分析、描述与推理等交互。
此次更新的信号,最早由 DeepSeek 多模态团队核心成员陈小康在社交平台释出。一句 “ Now, we see you ”,配上一张“鲸鱼摘下眼罩”的品牌图,象征着 DeepSeek 正式“睁眼看世界”。
这也意味着在 4 月 24 日发布、主打长上下文与推理能力的 DeepSeek-V4 之后,V4 系列最后一块关键拼图——多模态能力,终于完成补全。
在今天, DeepSeek 大幅度的开始推送—识图模式
相比传统视觉模型,DeepSeek 此次最大的突破,在于其提出的“以视觉原语思考(Thinking with Visual Primitives)”推理范式。
这次更新的意义,远不只是一次功能补全。
它意味着 DeepSeek 正在从“文本强模型”,逐步演化为一个能力完整的通用 AI 平台。
随着多模态能力上线,其“模型更强 → 用户更多 → 生态更旺 → 算力继续迭代”的正循环,也开始真正形成。
尤其是在国产算力逐渐协同成熟的背景下,DeepSeek 的高性价比路线,正在展现出极强的竞争力。
而“识图”,或许只是开始。
当视觉能力成熟之后,视频、音频,以及更完整的全模态交互,也许很快就会成为 DeepSeek 的下一步。
发布于 广东
