麻省理工科技评论 25-08-21 21:19
微博认证:《麻省理工科技评论》杂志官方微博

【不止是预测下一个词:Anthropic团队最新播客公开大模型的内部心智模型与思考过程】

当我们与一个#大型语言模型# (Large Language Model,LLM)对话时,我们到底在和什么对话?一个华丽的自动补全工具?一个互联网搜索引擎的化身?还是一个真正意义上在“思考”的存在,甚至可能像人一样思考?

“事实证明,有点令人担忧的是,没有人真正知道这些问题的答案。”在 Anthropic 最新一期关于模型可解释性(Interpretability)的播客中,Anthropic 研究员 Stuart Ritchie 开篇便抛出了这个困扰着整个 #AI# 领域的终极问题。

随着像 Claude 这样的大模型日益深入地融入我们的工作与生活,理解其复杂内部运作的“黑箱”已经成为了关乎 AI 信任与安全的核心议题。

而 #Anthropic# 一直致力于“打开这个黑箱”。最近,其可解释性团队的三位核心研究员——前神经科学家 Jack Lindsey、资深机器学习专家 Emmanuel Ameisen 和拥有病毒进化研究背景的数学家 Joshua Batson——通过这场播客,结合他们发布的研究报告《追踪大型语言模型的思想》(Tracing the thoughts of a large language model),为我们揭示了他们如何像绘制脑图一样,一步步理清 AI 的思想路径。

戳链接查看详情:http://t.cn/AXvyacBx