Karpathy 的新想法:用 LLM 给自己建一个会自我生长的个人知识库。
大多数人用 AI 处理文档的方式都是 RAG——把文件上传,提问时检索相关片段,生成答案。
这能用,但有个根本问题:每次提问,AI 都在从零开始重新发现知识。没有积累,没有沉淀。问一个需要综合五篇文章的问题,它每次都要重新拼。NotebookLM、ChatGPT 文件上传、绝大多数 RAG 系统,本质都是这套逻辑。
Karpathy 的想法完全不同,他叫它 LLM Wiki。
1. 核心思路——知识库是编译过的,不是每次现查的
不是把文档丢给 AI 等它检索,而是让 AI 主动维护一个结构化的 wiki——一组互相链接的 markdown 文件。
每加入一篇新文章:AI 读它、提取关键信息、更新相关词条页面、标注新内容和旧内容的矛盾、把综合的结论写进去。知识编译一次,持续更新,不是每次查询都重来。
本质上是:知识在 wiki 里复利增长,而不是在对话里一次性消耗。
2. 三个组成部分
1)Raw Sources(原始文档):你收集的所有原始资料,AI 只读、不改,是知识的源头
2)Wiki(AI 维护的知识库):结构化的 markdown 文件集合,AI 全权负责写和更新
3)Schema(规则文件):告诉 AI 这个 wiki 怎么组织、什么格式、什么工作流——是整个系统的配置文件,放在 CLAUDE.md 或 AGENTS.md 里
3. 三个核心操作
1)Ingest(摄入):丢进一篇新文章,AI 读、讨论、写摘要、更新10-15个相关词条
2)Query(查询):问问题,AI 查 wiki、综合答案——好的答案可以直接存回 wiki,让探索的成果沉淀下来
3)Lint(维护):定期让 AI 检查 wiki 健康状态——找矛盾、找孤岛页面、找缺失的交叉引用
Karpathy 还提了一个新概念——「Idea File」
他说:在 LLM Agent 时代,分享"具体代码/应用"的意义越来越小,因为每个人的 agent 都能自己把想法落地。更有价值的是分享想法本身——一个抽象的 idea file,把核心模式讲清楚,剩下的让你自己的 agent 根据你的需求定制实现。
这个 gist 本身就是一个 idea file 的示范:没有具体代码,只有模式描述,然后让你扔给自己的 agent 去落地。
访问:gist.github.com/karpathy/442a6bf555914893e9891c11519de94f
#HOW I AI# #程序员#
