#IT那些事儿# 比可汗学院和慕课还可汗:AI 同学吵起来了,这才是真正的多 Agent 课堂!
清华研究团队开源的这个 OpenMAIC,让我惊了,感觉比可汗学院和慕课还可汗。
你发一句话(图一)或一个文件,几分钟内就自动生成一堂完整的 AI 多 Agent 互动课堂——AI 老师语音讲解 + 白板实时画重点(图二),AI 同学和研究生助理跟你有问有答引导热烈讨论,有的“同学”思辨能力强,有的“同学”靠直觉(图三),实时测验、项目式学习(PBL)全都有,包教包会,还能用麦克风直接对话。
OpenMAIC 和小龙虾一样,也是“模型无关(model-agnostic)”架构,如果在本地搭建推荐配置高性价比推理模型(如 Gemini Flash),不过对于不同角色可以用不同模型(老师 / 学生 / 助教),这样能省点钱。
OpenMAIC 技术本质上是:
RAG + 多Agent系统 + 教学流程建模 + 多模态交互。
它的核心创新是多Agent编排。每个 Agent 都是一个 LLM prompt + memory,通过 graph 控制调用顺序,支持循环(讨论 → 修正 → 再讲),这就是为什么能看到“AI同学吵起来”(图四)。
我看很多人第一反应就是那 AI 幻觉怎么办?是啊,如何从工程上解决课堂多 AI Agent 的一致性和收敛性问题呢?
首先,在多 Agent 课堂里,幻觉不是 bug,而是系统性风险!
因为这个课堂里有多角色(老师 / 学生 / 助教)、长上下文(整堂课)、开放问题(学生提问),这比单轮问答难一个数量级,一旦一个 Agent 说错,其他 Agent 接着“合理化”,就会形成共识,强化错误。
其次,我在研究过的 SWE-CI 问题中就曾说过“上下文漂移 + 约束遗忘”(参见:http://t.cn/AXffDprp),那么在多 Agent 课堂里就会表现为越讲越偏和讨论跑题。
那么,如何解决呢?
猜测大概要分六层防护。
第一层,RAG Grounding(检索增强生成“锚定”在可验证的外部真实数据源上)
第二层,角色降权(主要是 AI “学生”)
第三层,提高AI“助理”的校验机制,或者单独增加一个裁决 Agent
第四层,结构化输出(防止漂移)
第五层,建立课堂“收敛机制”
第六层,全局一致性监控
总结一下, 要想抑制多 Agent 课堂的幻觉,必须要求(比如以 SKILLS 的方式):
1)所有知识必须引用来源
2)每一模块必须包含“总结 + 测验”
3)学生 Agent 不能给结论
4)加入 Verifier Agent 做一致性检查
OpenMAIC 的出现,标志着 AI 教育从“单点问答”迈向“系统性课堂编排”的质变。它的真正价值,不在于“让 AI 会讲课”,而在于它首次把教育问题转化为一个可工程化的多 Agent 系统一致性与收敛性问题——有争论、有纠错、有收敛。
但这也意味着,任何想在教育场景中认真落地多 Agent 系统的团队,都必须把"幻觉治理"当作头等大事来设计。上文提到的六层防护体系,本质上是在回答同一个问题:如何让一群 AI 在开放主题编排和开放对话中,仍然对真理负责?
这不只是 OpenMAIC 的工程挑战,也是整个 Agentic AI 时代的核心命题。教育场景,恰好是压力测试它的最好战场——因为学生不会假装听懂,错了就是错了。
