#吴恩达新课程##吴恩达带你学注意力机制#
吴恩达新课来了!依旧是深入浅出、理论结合实践,带你理解Transformer架构的核心技术——注意力机制。
不仅囊括注意力机制的数学原理,还手把手教你用PyTorch进行代码实现。
学习本课程,你需要具备一些Python基础,并且对AI有着浓厚兴趣。
课程主要内容包括——
1. Transformer和注意力机制的基本概念(4分钟) :从最基础的概念讲起,帮助你理解Transformer的核心思想,初步了解注意力机制。
2. 自注意力计算的矩阵数学(11分钟) :深入讲解自注意力(Self-Attention)的数学原理,以及如何通过矩阵计算来得到注意力值。
3. 用PyTorch实现自注意力(8分钟) :实践环节,通过代码实例,带你用PyTorch实现自注意力机制。
4. 自注意力与掩码自注意力(14分钟) :自注意力与掩码自注意力(Masked Self-Attention)的区别,自注意力是如何在编码器(Encoder)中构建上下文相关的词嵌入,而掩码自注意力则是在解码器(Decoder)中生成新的输出。
5. 掩码自注意力的矩阵数学(3分钟):介绍掩码自注意力的数学原理,帮你理解它是如何在Transformer模型中发挥作用的。
6. 用PyTorch实现掩码自注意力(5分钟) :带你实现掩码自注意力,用代码直观地理解它的工作原理。
7. 编码器-解码器中的注意力(4分钟) :了解编码器(Encoder)和解码器(Decoder)是如何通过注意力机制进行信息交互的,并学习编码器-解码器架构在生成输出时的具体实现。
8. 多头注意力(2分钟) :多头注意力是Transformer中的一个重要概念,通过多个注意力头(Attention Heads)来并行处理信息,进一步提升模型性能。
9. 用PyTorch实现编码器-解码器和多头注意力(4分钟) :带你用PyTorch实现编码器-解码器和多头注意力,这是深入理解Transformer架构的最后一步。
10. 附录:代码示例与小贴士(1分钟):课程最后会提供一些实用的代码示例,帮助你更好地理解所学知识。
对了,这门课程由StatQuest创始人Joshua Starmer打造,目前在DeepLearning.AI平台上可以免费体验。
感兴趣的小伙伴可以点击:http://t.cn/A61wesfj http://t.cn/A61AsYF9
