作者回复: 很有意思的思考,感谢你的分享!现在在大语言模型任务中更流行的说法,可以称这个能力为“涌现”。
作者回复: 你好。感谢你的建议,Transformer这一讲确实比较烧脑,你推荐的这个视频很有意思👍,能够帮助大家更直观理解Transformer的用法。我们后面的课程会努力做到更通俗易懂,希望能对大家有所帮助。
作者回复: 你好。想搞清楚SD模型的UNet是怎么引入Transformer结构的,还需要结合第8讲UNet的结构才能理解。今天这一讲只是希望讲清楚Transformer的原理。这里话似乎只说了一半,我们会在原稿中加以调整。感谢你的反馈~
作者回复: 你好。我们课程的06-11讲会探讨AIGC的专业知识,这些基础知识有助于我们理解后面实战篇的代码,听起来可能会有些吃力。如果平时工作中不需要算法研发类工作,这几讲可以整体了解下算法原理即可。当然也推荐把不懂的问题写在评论区,我们一起探讨,或者和ChatGPT交流交流。希望能帮助到你。
编辑回复: 你好。这门课程遵循「认识AI绘画 -> 基本原理 -> 经典算法 -> 代码实战」的逻辑,基本原理部分需要一定基础知识,尤其07讲Transformer会有些困难。对于产品、设计同学而言,了解大致过程即可;对于相关从业者,这部分建议多看几次,遇到不理解的点多多评论、或者和ChatGPT聊聊。理解了Transformer对于理解AIGC非常关键,加油~ 希望能帮助到你!
作者回复: 你好。这门课程遵循「认识AI绘画 -> 基本原理 -> 经典算法 -> 代码实战」的逻辑,基本原理部分需要一定基础知识,尤其07讲Transformer会有些困难。对于产品、设计同学而言,了解大致过程即可;对于相关从业者,这部分建议多看几次,遇到不理解的点多多评论、或者和ChatGPT聊聊。理解了Transformer对于理解AIGC非常关键,加油~ 希望能帮助到你!
编辑回复: 可以整理一下都哪里没看懂
编辑回复: 可以说留言出来具体哪里不懂,大家一起讨论。
作者回复: 你好。你的理解是正确的。在Transformer模型中,通过位置编码(Positional Encoding)这个技术在输入层将每个词的位置信息加入到其编码中。同一个词在不同的位置会得到不同的编码,这就让模型能区分开它们,也使得与之相关的注意力权重不同。这是Transformer模型能考虑到词的顺序和位置的关键。希望能帮助到你。