梁赛 26-01-13 08:55
微博认证:AI博主

DeepSeek 发布新论文Engram,利好什么?

先简单说下这个新技术,本质上把大模型“死记硬背”的部分从神经网络计算中剥离出来,转而用巨大静态记忆表来承担,最终形成一种计算(MoE) vs 静态记忆(Engram) 的新权衡关系。

真正的大规模版本(V4 预期)静态记忆表可能轻松上 TB 级,但依然主要靠主机内存承载。

对存储行业的利好解读

主机内存(DRAM)需求暴增
1、 最直接利好:内存条厂商(三星、海力士、美光)和服务器内存模组厂商
未来几代 DeepSeek 大模型很可能标配 512GB~2TB+ 系统内存 来放静态记忆表
高带宽内存(HBM)压力被大幅缓解

2、GPU 显存(HBM)不再是唯一瓶颈,对 H200/H300/B200 等超高 HBM 机型的刚需下降

3、性价比更高的 Hopper/Ada 上一代卡 + 海量 DDR5 组合可能重新变得非常有竞争力

NVMe SSD 需求间接上升

静态记忆表极有可能采用分层存储(DRAM + SSD 冷热分层)

模型 checkpoint 本身也会更大 → 利好企业级高耐久 PCIe 5.0/6.0 NVMe(尤其是大容量、随机读写强的)

国产存储/内存供应链中短期受益

长鑫、长江存储、兆易创新等在国产 DDR5/LPDDR、NAND 领域都有布局

如果 DeepSeek-V4 真的大规模商用,国产算力生态对内存/存储的需求会比单纯堆 HBM 更均衡

一句话总结目前最现实的利好逻辑:“DeepSeek Engram 把 AI 大模型的存储战场,从昂贵的 HBM 显存 → 转移到了便宜得多的 DDR5 + NVMe 体系”

这对整个存储产业链来说,是量更大、链更长、持续时间更久的利好。

目前(2026年1月中)还是早期研究阶段,真正落地规模和存储消耗要等 V4 正式发布才能看到完整数据。

但方向已经很明确了:未来大模型会越来越吃“静态大容量廉价存储”,而不再是单纯拼显存。

#梁文锋署名新论文曝光##DeepSeekV4或引入全新记忆架构#

发布于 广东