默庵·超级个体 26-04-03 10:21
微博认证:微博新知博主 科技博主 头条文章作者 微博原创视频博主

Andrej Karpathy 最近发了一条长推,聊了聊他最近在怎么用大语言模型。这条推文在 AI 圈引起了不小的反响,Lex Fridman、Obsidian 创始人 kepano 等人都跑来评论区交流。内容很精彩,值得好好拆解一下。

## 从写代码到整理知识

Karpathy 开篇就说了一个很有意思的变化:**他最近用 LLM 消耗的 token,越来越少花在写代码上,越来越多花在整理知识上。**

具体来说,他在用 LLM 给自己感兴趣的研究方向搭建个人知识库。知识以 Markdown 文件和图片的形式存储,整个过程几乎全部由 LLM 来完成,他本人很少直接动手编辑。

这个转变挺值得琢磨的。我们大多数人用 ChatGPT 或者 Claude,基本上是一问一答的模式,问完就走,下次再问可能又要从头来。但 Karpathy 的做法是让 AI 帮他把知识沉淀下来,形成一个可以持续积累、反复查询的体系。**同样是用 AI,一个是消费型的,一个是积累型的,长期下来差距会非常大。**

## 整套工作流是怎么运转的

Karpathy 把整个流程拆成了几个环节,每个环节都很清晰。

### 数据收集

他会把各种来源的资料,包括文章、论文、代码仓库、数据集、图片等等,统一放进一个 raw/ 目录。网页文章用 Obsidian Web Clipper 插件转成 Markdown 文件,相关的图片也会下载到本地,方便 LLM 引用。

### 知识编译

这是最核心的一步。**他让 LLM 把 raw/ 目录里的原始资料增量地“编译”成一个 wiki。**这个 wiki 就是一组按目录结构组织的 .md 文件,里面包含所有原始数据的摘要、反向链接,还会把数据归类到不同的概念下,为每个概念写文章,并把它们互相关联起来。

这里有个细节值得注意:他说这个过程目前还不是全自动的。早期阶段他会一篇一篇地手动添加资料,自己参与其中。但随着 wiki 逐渐成型,LLM 会“理解”整个知识库的结构和模式,后面再添加新文档就变得很简单了,只需要说一句“把这篇新文档归档到我们的 wiki 里”就行。

这个渐进式的过程很有意思。**就像带一个新助手,刚开始你得手把手教,告诉他文件怎么分类、笔记怎么写。但教了一段时间之后,他就摸清了你的习惯和偏好,后面的工作越来越顺畅。**

### 浏览和查看

他用 Obsidian 作为前端界面,可以在里面查看原始数据、编译好的 wiki,以及各种衍生的可视化内容。他还试了一些 Obsidian 插件来用不同方式展示数据,比如用 Marp 做幻灯片。

有一点他特别强调:**wiki 里的所有内容都是 LLM 写的和维护的,他自己几乎不直接编辑。**

### 问答查询

当 wiki 积累到一定规模之后,事情就变得有意思了。Karpathy 说他的某个研究方向的 wiki 已经有大约 100 篇文章、40 万字。在这个体量下,你可以向 LLM Agent 提出各种复杂的问题,它会自己去 wiki 里查找、研究,然后给出答案。

他原本以为需要搭一套复杂的 RAG(检索增强生成)系统,但实际上 **LLM 自己维护的索引文件和文档摘要就够用了**。在这个规模下,LLM 能很轻松地读取所有相关数据。

这一点可能会让很多做 RAG 的开发者感到意外。**当知识库的规模还没有大到离谱的时候,LLM 自己的组织和检索能力其实已经相当够用了。**有时候我们容易过度工程化,在问题还没有出现之前就搭建了一套复杂的基础设施。

### 输出形式

Karpathy 不喜欢在终端里看纯文本的回答。他会让 LLM 把结果渲染成 Markdown 文件、Marp 格式的幻灯片,或者 matplotlib 生成的图表,然后在 Obsidian 里查看。

更妙的是,他经常会把这些输出“归档”回 wiki 里,用来增强后续查询的质量。这样一来,**他自己的每一次探索和提问都会“累积”到知识库中。**这就形成了一个正向循环:你问得越多、探索得越深,知识库就越丰富,下一次查询的质量就越高。

### 知识库体检

他还会定期让 LLM 对 wiki 做“健康检查”,比如找出数据不一致的地方、用网络搜索补充缺失的信息、发现有意思的关联来作为新文章的候选,等等。通过这种方式逐步清理和完善整个知识库的数据质量。

LLM 还很擅长一件事:**建议你接下来可以问什么、可以深入研究什么方向。**这就像有一个研究助手,不仅帮你整理资料,还会主动提出新的研究线索。

### 额外工具

随着使用的深入,Karpathy 发现自己会开发一些额外的小工具来处理数据。比如他 vibe code(随手写)了一个简单的搜索引擎,有 web 界面可以直接用,但更多时候是通过命令行交给 LLM 作为工具来使用。

### 技术架构的极简主义

有人问他是不是用了 Obsidian 的命令行工具,他说没有。他刻意保持整个架构极其简单和扁平:就是一个嵌套的目录,里面放着 .md 文件、.png 图片,加上少量的 .csv 和 .py 文件,然后用一个 [AGENTS.md](http://t.cn/AXV8rzbX) 文件来记录整个知识库的结构说明。LLM 对这种简单的结构理解起来毫无障碍。

这个设计选择很有意思。在技术圈,人们总是倾向于用更复杂、更“高级”的方案。但 Karpathy 选择了最朴素的文件系统加 Markdown,因为这是 LLM 最容易理解和操作的格式。**工具越简单,LLM 用起来越顺手,整个系统就越可靠。**

## 未来的想象空间

Karpathy 还提到了两个很有前瞻性的方向。

第一个是合成数据加微调。随着知识库越来越大,一个自然的想法是:**能不能用这些数据来微调模型,让 LLM 把知识“记”在模型参数里,而不只是放在上下文窗口中?**这就像一个人从“查资料才能回答”进化到“张口就来”的过程。

第二个更大胆。他在评论区补充说,可以想象这样一个场景:**你向一个顶级 LLM 提出一个问题,它会自动派出一个 LLM 团队,从零开始构建一个临时的 wiki,反复检查和完善,最后输出一份完整的报告。**这已经远远超出了简单的“生成回答”的范畴。

## 精彩互动

这条推文的评论区也很有料。

Obsidian 的创始人 kepano 回复说,他喜欢 Karpathy 这种做法的一个原因是:**它降低了 AI 生成内容对你主知识库的“污染”风险。**他的建议是,把个人的 Obsidian 知识库保持高信噪比,所有内容都要有明确的来源,然后单独给 AI Agent 开一个“游乐场”。

Lex Fridman 说他也有类似的工作流,用 Obsidian、Cursor 和自己 vibe code 的 web 终端作为前端。因为他做播客,研究兴趣非常广泛,这种知识库的方式效果很好。

有个叫 Krishna Tammireddy 的人留了一句特别精辟的评论:**每家公司都有一个 raw/ 目录,但从来没有人把它“编译”过。这就是产品机会。**Karpathy 回复说:不知道这是不是 LLM 写的回复,但说得没错。

还有人说 Karpathy 现在就像 AI 界的 Linus Torvalds,是一个“元级别的 vibe coder”,不知道这条推文会在一夜之间催生多少新项目。Karpathy 自嘲说:哈哈,我用推特来 vibe code 产品。

## 一个值得所有人思考的方向

Karpathy 在推文最后说了一句话:他觉得这里面蕴藏着一个很棒的新产品的机会,而不应该只是一堆拼凑的脚本。

这句话点出了一个很重要的趋势。**我们正在从“用 AI 聊天”走向“用 AI 管理知识”。**聊天是即时的、一次性的,而知识管理是持续的、累积的。当 AI 能够帮你把散落在各处的信息整理成一个结构化的、可查询的、不断生长的知识体系时,它的价值就从一个聊天工具变成了一个真正的智力放大器。

而且 Karpathy 的做法有一个特别值得学习的地方:**他让每一次使用 AI 的过程都产生沉淀。**问一个问题,答案归档到 wiki 里;做一次探索,发现的新线索变成新文章的种子。这样一来,你跟 AI 的每一次交互都在让你的知识库变得更好,而更好的知识库又会让下一次交互的质量更高。**这种正向飞轮一旦转起来,长期的复利效应是非常可观的。**

说到底,工具都是现成的,Obsidian 免费,LLM 的 API 也不贵。**真正稀缺的是这种思维方式:把 AI 从一个回答问题的工具,变成一个帮你积累和组织知识的系统。**这个转变,可能比学会写更好的 prompt 重要得多。

#科技先锋官##How I AI#

发布于 山东