谷歌最近搞了个叫TurboQuant的新算法,这事儿在存储圈炸锅了。昨晚美股闪迪跌11%,
今天聊聊它对存储的影响:
1. 这个技术到底干了啥?
简单说,它把大模型运行时最吃内存的KV缓存给狠狠压缩了一把——号称能压缩6倍,也就是内存占用直接降到原来的1/6。而且不是在牺牲性能的前提下,测试下来准确率几乎没损失,速度反而快了。
2. 市场反应:存储巨头股价先崩了
消息一出,市场解读很直接:以后AI不需要那么多内存了。结果是美光、SK海力士、三星这些存储巨头股价集体大跌,一天蒸发掉900多亿美元市值。这场景跟去年DeepSeek出来时有点像,一听说"效率提升",硬件股先挨捶。
3. 但是!分析师说别慌,逻辑是反的
冷静下来看,多数分析师认为这是过度反应,核心逻辑叫"杰文斯悖论"——效率提升反而会刺激需求增长。道理很简单:以前跑不动大模型的设备(比如普通电脑、手机),现在内存门槛降下来了,能跑的人变多了;同样一张显卡,原来只能服务10个人,现在能服务60个人,推理成本大幅下降,AI应用只会更普及,最后总的存储用量反而会更多。
4. 需要注意的几点
· 这技术目前还是实验室成果,没大规模商用
· 它只影响推理阶段的缓存,不涉及模型训练,训练用的HBM该用还得用
· 说白了,这是给AI"省内存",不是让AI"不吃饭",省下来的空间很快就会被更长的上下文、更大的模型吃掉
短期看,这技术确实冲击了"存储永远不够用"的预期,引发情绪性抛售。但长期来看,它更像是给AI降本增效的催化剂,需求大概率只会更多,不会更少。
不构成投资建议$兆易创新(SH603986)$ $普冉股份(SH688766)$ $香农芯创(SZ300475)$#美股创近1个月最大单日跌幅#
发布于 广东
