人工智涨Ultra 26-01-21 00:18
微博认证:科技博主

#Deepseek的Engram给我一个灵感#
刚刚突然想到……
Deepseek的Engram ,可以把它用在长期的专业对话,长尾的复杂问题,渐进式的研究等工作的过程中,以Agent的方式或者其他应用层的方式,不局限在模型内。

在这个过程中可以存储过程中的思维精华进行压缩存储。一不需要重新训练模型,可以手动和半自动的方式完成记忆压缩,二随着使用者的研究或者技术实现的推进,会减少每次的计算,三是它也可以变成一个类似于自己的思维精华数据库,认知数据库,会在工具上直接加速创新。

相当于外挂了一个海马体呀……

对比RAG,Engram工程自动化难度低一点,而且Engram可以存储思维过程要点,RAG存的是具体看过的文档或者自己写的文档。

Engram存的是认知,灵感和整个创意发生的过程,显然Engram适合充满创造力的领域。

这样从AI工程落地的角度,也是对推理进行了加速。

我给他起名叫做:“认知压缩引擎”(Cognitive Compression Engine, CCE)

认知单元认知单元 (Cognitive Unit, CU)的核心算法:循环机制 (The Loop)

• 输入 (Input):用户的自然语言查询 Q。

• 检索 (Retrieval):系统在向量库中检索 Top-K 个与 Q 语义相似的 CU,形成上下文 C。

• 生成 (Generation):LLM 根据 Q + C 生成回答 A。

• 蒸馏 (Distillation):LLM 分析 Q + A,提取出新的潜在认知单元 CU_{candidate}。

• 确认 (Confirmation):用户对 CU_{candidate} 进行编辑或确认。

• 存储 (Storage):将确认后的 CU_{final} 存入数据库,并建立关联。

牛逼牛逼 @评论罗伯特 你觉得怎么样?

三个核心场景构想:

1. 新产品研发 (New Product Development)

痛点:

• 信息孤岛:市场调研、技术可行性分析、竞品拆解、内部会议纪要,分散在飞书、Notion、邮件、甚至微信里。

• 决策遗忘:三个月前讨论过一个方案为什么被毙掉,现在新人又提出来了,没人记得当时的具体原因(Context Loss)。

• 版本混乱:需求文档改了十几个版本,为什么改?基于什么数据改的?历史链路丢失。

2. 研究性领域 (Academic/Deep Research)

痛点:

• 文献海洋:读一篇论文需要 2 小时,做一个课题要读 50 篇,读完后面忘前面。

• 灵感断裂:看论文时突然有个想法,记在纸上,过两天找不到了;或者这个想法和你上周看的另一篇论文有关,但你想不起来是哪一篇。

• 逻辑构建:研究是一个螺旋上升的过程,需要不断地提出假设、验证、推翻、修正。

3. 长尾问题解决 (Long-tail Problem Solving)

痛点:

• 经验流失:老员工离职,带走了处理“特殊 Bug”或“奇葩客户需求”的经验。

• 重复造轮子:一个极其罕见的技术问题,三年前有人解决过,现在新人遇到了,又要花三天三夜去排查。

• 隐性知识:很多解决方法是“只可意会不可言传”的,没有写在 Wiki 里。

@微博科技 你觉得咋样。

发布于 广东