12日晚,DeepSeek联合北京大学发布题为《基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度》的前沿研究论文。引人注目的是,公司创始人梁文锋作为合著作者署名出现。
该论文突破性地提出“条件记忆”(conditional memory)新范式,通过创新的可扩展查找记忆结构,为大语言模型开辟了稀疏性的新维度。研究显示,在保持参数规模与计算成本不变的前提下,该技术能显著增强模型在知识调用、复杂推理、代码生成及数学问题求解等核心任务上的性能表现。
秉承其一贯的开源精神,DeepSeek同步开源了与该论文配套的记忆模块实现“Engram”。这一举措旨在推动整个AI社区对高效记忆与推理机制的研究与应用。
Github
http://t.cn/AXGz0LGh
#ai创造营#
发布于 上海
