爱可可-爱生活 26-04-11 18:42
微博认证:AI博主 2025微博新锐新知博主

芝加哥大学最新开设的《大语言模型》课程(CMSC 25750/35750)不仅是一次技术教学,更是一场关于AI本质的深度探索。在模型能力日新月异的今天,我们不仅要学会如何“使用”LLM,更要理解它们如何运作、如何确保其行为符合预期,以及如何在其之上构建可靠的系统。

这门课程由 Chenhao Tan 教授主理,其核心逻辑紧扣当前LLM研究的三大终极命题:可解释性、对齐与智能体。

1. 破译黑盒:可解释性(Interpretability)
我们正处于从“炼丹”转向“科学”的关键节点。课程通过分析电路(Circuits)和内部表示,带领学生深入探索稀疏自编码器(SAEs)与线性表示的几何结构。这不仅是技术上的拆解,更是对机器逻辑的底层重构。
金句:理解模型不是为了消除神秘,而是为了在透明的基础上建立信任。

2. 驯服力量:对齐(Alignment)
当模型展现出涌现的失调(Emergent Misalignment)或谄媚行为(Sycophancy)时,简单的微调已不足够。课程深入探讨可扩展监督(Scalable Oversight)与潜伏代理(Sleeper Agents)等前沿课题。
金句:对齐不是约束,而是确保人工智能在通往强大的道路上,始终不偏离人类价值的轨道。

3. 赋予行动:智能体(Agents)
LLM不再仅仅是对话框,它们正成为软件工程、科学研究乃至模拟人类行为的自主智能体。课程探讨了LLM如何作为研究助手,以及它们在复杂决策中如何与人类互补。
金句:智能体的出现,标志着AI从“知者”向“行者”的跨越。

课程的独特之处:
- 批判性思维:特有的“Roast or Toast”环节,要求学生要么辛辣地拆解一篇论文(Roast),要么为其提出富有想象力的扩展(Toast)。
- 拥抱不确定性:在科研中,证据往往是不完整的。课程强调在不完整的经验证据中分析、解释并构建论点的能力。
- 实战导向:50%的分数由长达一个季度的研究项目决定。课程鼓励使用 Claude Code、ChatGPT 等工具,甚至推荐使用 NeuriCo 辅助项目开发。

这门课向我们传达了一个深刻的信号:在AI时代,最核心的竞争力不再是记忆代码,而是对复杂系统的洞察力,以及在迷雾中通过实验寻找真理的科学素养。

课程详情参考:uchicago-llm-course.github.io

在这个黑盒逐渐透明的过程中,我们不仅在构建工具,更在审视智能本身的边界。

发布于 北京