AI 大模型项目落地实战
蓝金伟
AI 创业者,前新浪网技术专家
119 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已更新 2 讲/共 26 讲
第一章 基本原理 (1讲)
AI 大模型项目落地实战
15
15
1.0x
00:00/00:00
登录|注册

01| 原理:一个例子讲清楚Transformer原理

你好,我是金伟。
相信很多同学都看到过类似下面的 GPT 介绍。
GPT-3 是强大的生成式语言模型,拥有 1750 亿个参数。它使用 Transformer 架构,通过大规模的无监督学习从海量文本数据中学习了语言的统计规律和语义表示。GPT-3 可以应用于多种自然语言处理 (NLP) 任务,包括文本生成、文本分类、问答系统等……
你有没有想过,为什么这里面的概念不管在哪种介绍里都会被反复提及?它们是什么意思?每个概念之间有什么关系?如果我们想入局大模型,需要搞清楚这些概念吗?
我的答案是,需要。想学习大模型开发的朋友,只有通盘搞清楚这些问题,才能把概念落实到程序中。
接下来,我会从一个典型的例子出发,采用抽丝剥茧的方式,分析这个例子在 Transformer 架构下的具体程序流程以及数据结构。
相信通过这节课,你一定能达成三个目标。
跟着这个 Transformer 程序流程图,把所有 Transformer 里的概念串联起来,并理解清楚流程。
理解 Token,Embedding 和 Self-Attention 这 3 个最核心的算法和数据结构,解释 Transformer 为何可以达到人类智力级别。
从业务层看待 Transformer 程序流程图,理解上述所有大模型的相关概念。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
  • 解释
  • 总结

1. Transformer架构通过输入文本,预测下一个字的概率,实现自然语言处理任务。 2. Transformer的输入、输出、词表等外围辅助概念为理解程序流程打下基础。 3. Transformer架构的整体流程可从业务视角和程序视角理解,包括输入模块、编解码模块和输出模块的职能。 4. Transformer架构中的算法通过矩阵和向量计算实现,每个算法的输入和输出都是矩阵。 5. 了解Transformer的具体程序流程和数据结构,包括Token、Embedding和Self-Attention等核心算法和数据结构。 6. 通过理解Transformer的流程和数据结构,可以为学习大模型开发提供基础。 7. 了解Transformer架构的整体架构和逻辑,可以通过分治法将其分为输入、编解码和输出三大部分,便于逐步理解。 8. 了解Transformer架构中的每个算法的输入、输出和计算过程,以及模型参数的训练和应用。 9. 通过理解Transformer的整体架构和具体程序流程,可以为学习大模型开发提供基础,帮助将概念落实到程序中. 10. Transformer的核心算法和结构包括Token词表、Embedding向量和Self-Attention算法。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 大模型项目落地实战》
新⼈⾸单¥59
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部