让 AI 自我对话让它变得更聪明
January 31, 2026 作者:冲绳科学技术学院(OIST)
允许 AI 自我对话有助于它更快学习并更容易适应。这种内心语言结合工作记忆,使人工智能能够用更少的数据概括技能。
自言自语常常让人觉得自己是人类独有的习惯。内心对话帮助人们理清思路、做出选择并处理情绪。最新研究显示,这种自我对话也能带来益处。在发表在 《神经计算 》杂志上的一项研究中,冲绳科学技术研究所(OIST)的科学家发现,当内心语音与短期记忆结合时,人工智能系统学习效果更佳,使其能够处理更广泛的任务。
结果表明学习不仅仅是系统设计的问题。据第一作者、OIST 认知神经机器人研究组科学家 Jeffrey Queißer 博士介绍:“这项研究凸显了自我互动在我们学习中的重要性。通过以一种让系统学会自我对话的方式构建训练数据,我们展示了学习不仅受人工智能系统架构影响,还受训练过程中嵌入的交互动态影响。”
Teaching AI to Talk to Itself 教 AI 自我对话
为了验证这一观点,研究人员将自我导向的内在语音(被称为轻声“咕哝”)与专门设计的工作记忆系统结合起来。这种组合带来了显著提升,提升了 AI 模型学习新信息、适应陌生情境以及同时管理多项任务的能力。
Building Flexible, General-Purpose AI 构建灵活通用的人工智能
该研究团队长期专注于内容无关的信息处理。这种方法旨在帮助人工智能将所学应用于超越具体例子的应用,依靠通用规则和方法,而非死记硬背的模式。
“快速切换任务和解决陌生问题是我们人类每天都能轻松做到的事。但对于人工智能来说,挑战要大得多,“奎瑟博士说。“这就是为什么我们采取跨学科方法,将发育神经科学和心理学与机器学习和机器人学等领域融合,寻找新的学习思考方式,并为人工智能的未来提供启示。”
Why Working Memory Matters 为什么工作记忆很重要
早期实验集中在记忆设计上,特别是工作记忆在帮助人工智能泛化中的作用。工作记忆允许系统暂时存储和使用信息,无论是执行指令还是进行快速计算。通过测试不同难度的任务,研究人员比较了几种记忆结构。
他们发现,拥有多个工作记忆槽(临时信息容器)的人工智能系统在复杂挑战中表现更好,如逆转序列或重现模式。这些任务需要牢记多个要素并准确作它们。
当团队加入自我含糊目标——告诉系统自我对话一定次数——性能进一步提升。最大的进步体现在多任务处理和涉及多步骤的问题上。
“我们的联合系统尤其令人兴奋,因为它能处理稀疏数据,而非通常训练此类模型以进行泛化所需的大量数据集。它提供了一种互补的轻量化替代品,“Queißer 博士说。
Learning to Learn in Real-World Conditions 在现实环境中学习
接下来,研究人员计划超越整洁的测试环境,引入更现实的挑战。奎瑟博士解释道:“在现实世界中,我们是在复杂、嘈杂、动态的环境中做出决策和解决问题。为了更好地反映人类的发展学习,我们需要考虑这些外部因素。”
这项工作也支持了更广泛的目标,即理解学习在人脑中的工作原理。奎瑟博士总结道:“通过探索内在语言等现象,并理解这些过程的机制,我们获得了对人类生物学和行为的根本性新见解。”“我们也可以应用这些知识,例如开发能在我们复杂、动态世界中运行的家用或农业机器人。”
Reference: “Working Memory and Self-Directed Inner Speech Enhance Multitask Generalization in Active Inference” by Jeffrey Frederic Queißer and Jun Tani, 22 December 2025, Neural Computation.
DOI: 10.1162/NECO.a.36
