麻省理工科技评论 26-04-05 15:44
微博认证:《麻省理工科技评论》杂志官方微博

【Karpathy开源“第二大脑”方案,有望替代向量数据库,让AI永不失忆】

你以为 #AI# 在学习,实际上,每次对话它都在重学一遍。

你或许也有这样的体验:在 NotebookLM、ChatGPT 上传一系列文件,LLM 处理并生成答案。但每次 LLM 都要“从 0 开始”挖掘知识,尤其是当达到使用上限或结束会话时,就像给项目做了一次“记忆清空”。

其本质仍然是检索增强生成(RAG)。为了让它记住建立的架构细节,只能用更多的 token 和时间来重建 AI 的上下文。

现在,#OpenAI# 创始成员之一、特斯拉前 AI 总监 Andrej Karpathy 通过构建一个持久的、由 LLM 维护的项目记录,提出了一套全新的知识库方案 LLM Wiki。

该方案比典型的企业级解决方案(向量数据库和 RAG 管道)更简单,也更优雅,能够复制粘贴到个人 Agent 中(例如 OpenAI Codex、Claude Code、OpenCode/Pi 等)。在这个系统中,LLM 本身充当的角色是全职“知识库管理员”:积极编译、检查和链接类 Markdown(.md)维基百科式文档。

戳链接查看详情:http://t.cn/AXIduZYM