#AI[超话]# MIT CSAIL 的这项工作提出了一个新框架:Recursive Language Models,简称 RLM。它的核心思路是把超长上下文放到模型外部环境里,由模型像写程序一样去搜索、切片、定位、拆解,再递归调用自己处理局部内容,最后汇总结果。换句话说,它处理长文本,不是靠把所有内容一次性塞进上下文窗口,而是靠“外部存储 + 程序化访问 + 递归分析”。 
论文报告的主要发现有三点。第一,RLM 可以处理达到模型原生窗口两数量级以上的输入,论文中展示了 1000 万 token 级别的长上下文任务。第二,在多项长上下文任务上,RLM 相比基础模型和常见长上下文脚手架有明显提升,部分任务达到双位数百分点增益。第三,在这些任务中,它的查询成本与现有方法相当,部分情况下更低。 
这项工作的意义在于,它把“长上下文”从一个单纯依赖更大窗口的问题,转成了一个由模型主动读取、分解和递归处理外部信息的问题。围绕这篇论文,已经出现了多个开源实现,目标都是把这种思路接入现有 LLM 工作流,用于处理超长文档、复杂长任务和多步 Agent 场景。 
发布于 西班牙
