斯坦福2025秋季开设的《Transformers与大型语言模型》课程,涵盖从基础到前沿的全方位内容,值得AI爱好者和从业者关注:
- 课程从NLP基础讲起,逐步深入Transformer架构、注意力机制及其变种(如多头注意力、位置编码等)。
- 深入解析大型语言模型(LLM)的定义、架构、混合专家模型、采样策略和提示学习,详细讲授链式思维与自洽性。
- 系统介绍LLM训练方法,包括预训练、量化、硬件优化及高效微调技术(如LoRA)。
- 探讨LLM调优策略,涵盖偏好调教、强化学习人类反馈(RLHF)、奖励建模及相关算法。
- 未来课程聚焦LLM推理能力、代理型模型、检索增强生成、多模态评估及未来趋势,前沿话题紧跟行业动向。
这门课程不仅系统全面,还注重实际应用与研究前沿结合,适合希望深入理解并参与大型语言模型发展的人士。透过结构化教学,帮助学习者抓住技术核心,识别挑战与机遇,推动AI技术进步。
原文链接:cme295.stanford.edu/syllabus/
发布于 河北
