Scalers 26-04-11 11:25
微博认证:作家,著有《刻意学习》

Karpathy发了一条推,5天后浏览量1600万。

不是聊AI大模型,是聊他怎么管自己的知识。

他发布了一个叫"llm-wiki"的GitHub Gist,5000多人收藏,15个独立实现版本在GitHub上出现。

这个速度说明一件事:很多人被戳中了。

他的方案叫什么?三层架构,无数据库。

第一层 raw/
把所有原始素材丢进去:文章、论文、GitHub链接、截图。用Obsidian Web Clipper自动转成Markdown,图片也存本地,LLM能直接"看"。

第二层 wiki/
LLM读 raw/ 里的东西,然后"编译"——不是搜索,是真正理解后重新写出来。生成结构化知识、关键概念、百科风格的文章,以及不同想法之间的反向链接。

第三层 AGENTS.md(规则文件)
定义你的写作风格、工作流程、模板规范。让AI以后生成内容的时候,风格是你的,不是通用的。

最有意思的地方:

这个知识库会"自我修复"。

LLM定期跑"health check"——扫描整个库,找不一致的地方、缺失的连接、可以补充的内容,然后自动修正。

它不是静态文档,是会进化的知识资产。

他目前大约100篇文章、40万字,运行流畅,没有任何向量数据库。

普通人能用吗?

结构已经完全公开在GitHub Gist(搜"karpathy llm-wiki"),国内已经有人做了中文版复现教程。

唯一需要的是:开始建raw/文件夹,往里扔东西。

你已经有多少"随手记了就再没翻过"的内容了?

那就是你知识库的第一批原材料。

#AI副业##个人IP##知识管理##AI实践#

发布于 北京