源深路炒家 26-04-24 11:52
微博认证:投资内容创作者 AI博主

#DeepSeekV4发布#DeepSeek这家公司最有意思的地方,是缺什么就干什么,而且每次都是开卷考试。

去年行业最大的瓶颈是英伟达GPU,DeepSeek通过模型架构和工程优化,把训练和推理成本大幅打下来,很多人第一反应是“这是不是减少了算力需求”。但后来的结果其实很清楚:成本下降并没有压制AI产业链,反而进一步催化了行业发展。推理成本越低,应用越敢做,调用次数越多,Agent、长上下文、多轮推理、企业级部署这些原本因为成本太高而受限的场景,反而更容易爆发。这本质上就是AI时代的杰文斯悖论:效率提升不会简单减少资源消耗,反而会扩大资源使用边界,最后推高总需求。

今年行业的新瓶颈开始转向存储、显存和KV Cache。长上下文和Agentic AI不是一次性问答,而是大量历史状态、工具调用、中间推理结果的持续保存和读取,KV Cache会成为推理侧非常核心的成本项。DeepSeek如果继续沿着KV Cache优化、缓存压缩、分层存储、推理I/O调度这些方向往下做,本质上还是在解决AI产业扩张过程中最堵、最贵、最限制应用普及的环节。

所以DeepSeek真正的意义,不是让行业“少用算力”,而是让AI变得更便宜、更好用、更可扩散。成本曲线每往下压一截,需求曲线就可能往外扩一大截。去年解决GPU效率,催化了推理需求;今年如果解决KV Cache和存储瓶颈,催化的可能就是Agent和长上下文应用的大规模落地。

说白了,题目不是DeepSeek出的,是产业瓶颈出的。去年答案写在GPU上,今年答案写在存储和KV Cache上。DeepSeek每次都在最关键的约束条件上做工程突破,市场如果只把它理解成“国产大模型降本”,就低估了它真正的产业含义:它不是在压缩AI产业链,而是在降低门槛之后,把整个AI需求重新放大。http://t.cn/A6D9gdpz

发布于 上海