量子位 25-12-05 18:52
微博认证:量子位官方微博

#谷歌新架构突破Transformer超长上下文瓶颈#

Transformer的提出者谷歌,刚刚上来给了Transformer梆梆就两拳(doge)。

两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。

两项新成果分别是:

- Titans:兼具RNN速度和Transformer性能的全新架构;
- MIRAS:Titans背后的核心理论框架。

核心要解决的,就是Transformer架构在处理超长上下文时的根本局限:计算成本会随着序列长度的增加而猛增。

不得不说,从Nano Banana到Gemini 3 Pro,再到基础研究方面的进展,谷歌最近一段时间就是一个穷追猛打的架势。

也难怪奥特曼要给OpenAI拉“红色警报”了。

论文链接:
[1]https://research.google/blog/titans-miras-helping-ai-have-long-term-memory
[2]http://t.cn/A6uCvNMu
[3]http://t.cn/A6dvL5F2