【DeepSeek变冷淡了】
2月11日,深度求索(DeepSeek)悄悄地对其旗舰模型进行灰度测试。
此次更新的核心亮点是,模型上下文窗口从原先的128K Tokens大幅提升至1M Tokens,实现了近8倍的容量增长。在AI大模型领域,上下文窗口决定了模型在单次交互中能够记忆和处理的信息量上限。
一位国产大模型厂商人士解释,此前DeepSeek的主流模型支持128K Tokens的上下文,这一长度可以应对长篇论文或中等规模的代码文件,但处理超长文学作品或较大体量编程工作,往往需要借助RAG(检索增强生成)技术,这导致信息碎片化和推理精度下降。
升级后的1M Tokens窗口意味着DeepSeek可以一次性吞吐约75万到90万个英文字母,或者处理约8万到15万行代码。
截至2月12日,DeepSeek并未对此次灰度测试作出回应。
http://t.cn/AXtzO1im
