Karpathy发了一条推,5天后浏览量1600万。
不是聊AI大模型,是聊他怎么管自己的知识。
他发布了一个叫"llm-wiki"的GitHub Gist,5000多人收藏,15个独立实现版本在GitHub上出现。
这个速度说明一件事:很多人被戳中了。
他的方案叫什么?三层架构,无数据库。
第一层 raw/
把所有原始素材丢进去:文章、论文、GitHub链接、截图。用Obsidian Web Clipper自动转成Markdown,图片也存本地,LLM能直接"看"。
第二层 wiki/
LLM读 raw/ 里的东西,然后"编译"——不是搜索,是真正理解后重新写出来。生成结构化知识、关键概念、百科风格的文章,以及不同想法之间的反向链接。
第三层 AGENTS.md(规则文件)
定义你的写作风格、工作流程、模板规范。让AI以后生成内容的时候,风格是你的,不是通用的。
最有意思的地方:
这个知识库会"自我修复"。
LLM定期跑"health check"——扫描整个库,找不一致的地方、缺失的连接、可以补充的内容,然后自动修正。
它不是静态文档,是会进化的知识资产。
他目前大约100篇文章、40万字,运行流畅,没有任何向量数据库。
普通人能用吗?
结构已经完全公开在GitHub Gist(搜"karpathy llm-wiki"),国内已经有人做了中文版复现教程。
唯一需要的是:开始建raw/文件夹,往里扔东西。
你已经有多少"随手记了就再没翻过"的内容了?
那就是你知识库的第一批原材料。
#AI副业##个人IP##知识管理##AI实践#
发布于 北京
