爱可可-爱生活 25-12-03 08:49
微博认证:AI博主 2025微博新锐新知博主

《Making Sense of Memory in AI Agents》

AI代理记忆的最大难题,不是教它们“记住”,而是教它们“忘记”。

核心挑战是:大语言模型(LLM)天生无状态,每次对话都是全新开始,既不记得五分钟前说了什么,也不记得上周的内容。那么,如何让代理“记住”呢?

记忆类型分两大类:
• 短期记忆:LLM上下文窗口里的当前对话信息
• 长期记忆:外部存储的历史对话、用户偏好、学习事实等

不同框架对记忆分类也不尽相同:

CoALA(类人认知架构):
- 工作记忆(当前对话)
- 语义记忆(用户事实)
- 情景记忆(过去经历)
- 程序记忆(指令和行为)

Letta(架构导向):
- 消息缓冲(最近消息)
- 核心记忆(主动管理的上下文块)
- 回忆记忆(对话历史)
- 档案记忆(显式存储的知识)

最难的部分是忘记。如何自动判断哪些信息过时了?哪些依然相关?这正是大多数实现的难点。

Leonie的文章不仅讲清了各种记忆类型,还分享了实践中如何管理记忆(生成、存储、检索、更新、删除),并介绍了mem0、Letta、zep等新兴记忆框架。

社区专家提到:
- 让代理自己判断哪些记忆该删,比用复杂的衰减机制更靠谱。
- 记忆管理不能只是简单的“先进先出”,需要智能逻辑。
- 忘记不仅是存储问题,更是时间、情境和价值判断问题。
- 合规需求(如“被遗忘权”)让删除机制变得更复杂。

总结:AI代理记忆设计的核心,是如何在短期上下文与长期外存之间高效流转信息,同时智能决策何时更新、合并或删除信息。忘记难题不仅关乎技术,更关乎对时间和情境的理解以及用户隐私的尊重。

文章:leoniemonigatti.com/blog/memory-in-ai-agents.html

发布于 北京