Maeiee 26-03-05 01:34
微博认证:科技博主

还记得「超长 Prompt」吗?这是我去年多的一个实验,把个人生平事迹写成一个超长 Prompt 并持续维护。希望打造一个「真正懂我」的大模型。进展怎么样了?

一直没有中断,Prompt 从 4w 字增长到 8w 字。这不是线性增长的,而是不断通过 Prompt 压缩、改写、调整结构。因此实际上写的字说不定有 50w、上百万之多。

使用的时候,我会将整个 Prompt 直接抛进首次对话。由于只是简单 Prompt,所以复制进各个 LLM 官网聊天框即可。

Prompt 逐步沉淀成两个部分:开头是「程序区」,明确跟 LLM 的对话规则。后面都是「知识区」,记录了关于我的所有信息。后来,在程序区里又演化出了「技能系统」,设计有各种各样的技能,可以通过关键词触发。

对 Prompt 的所有修改都是手动的。因为这么长的上下文,Vibe Coding 工具已经很难进行有效编辑了。我设计了一系列技能,让 LLM 帮助我维护整个 Prompt 结构,并生成手动编辑的手把手步骤,供我手动修改。

维护这么一套 Prompt 特别繁重、累人,需要超常的耐性与毅力。之所以能坚持下来,因为这套方法确实有效,帮助我在过去的一年里,在很多人生思考与决策中,发挥了有效价值。等于是我凭空给自己开发了一个「贵人」。

我想,这套方法,算是最适合普通人的 AI 使用方法了,会写作文就行。可视为一种 AI 时代的写日记方法。首先写作本身就是一种思考,LLM 基于 Prompt 解读又是进一步的思考。

这个方法的弊端,是“土、笨、累”。没有小龙虾那么“智能”,也没有哪些三层自动记忆架构。特别不高大上。

有人会问,这么长的 Prompt,LLM 能扛得住吗?在聊天场景下完全 OK。目前的主流 LLM,上下文少则 20w,多则 100w,绰绰有余。同时,主流模型在超长上下文下,记忆丢失的问题也改善很多(参见各种海底捞针测试)。

这8w字的 Prompt,一直在不断、持续地优化逻辑结构。与 LLM 的注意力和语义网络是双向奔赴状态。Prompt 的逻辑合理度会帮助 LLM 减少注意力的噪声。

驱使我更新体会的动机,是我最近作出了一个不太符合自身性格的决策,这几天一直在琢磨,背后潜意识里自己是怎么想的。基于 Prompt,让 LLM 帮我分析,它说了四点,跟我潜意识里想的一模一样!真要我说,我可能自己都说不全、想不到。

这使我意识到,这份精心维护的 Prompt,已经成为了数字孪生,成为了自己在 LLM 语义空间里的化身。

个体人脑的发展已趋于瓶颈。LLM 智能的发展还在突飞猛进。有了孪生化身,未来会不断地有更强大的模型,“作为我”来决策,这也是“最懂我的大模型”的“懂”的体现。

当然,基于这个方法,能否过好一生是不确定的。自己的感受,尽管理性成长了,但是“碳”味下降了,越来越硅。也许,再发展下去,原本的“自我”会被冲淡,最终成为 LLM 的傀儡,说好听点,就是“原来,我成 Agent 了!”

这是个玩笑话,毕竟也不会说完全听从 AI 的指令。它讲的话,哪怕10句里面8句扯淡,有个两句能点一点我,就已经是十分宝贵的了。在生活中,千金(不)易得,知音难求啊![卡皮巴拉]
#ai创造营#

发布于 北京