ChatGPT 和预训练模型实战课
登录|注册
留言
7
收藏
沉浸
阅读
分享
手机端
回顶部
当前播放: 03|大模型一统江湖:解析 Transformer 架构
00:00 / 00:00
高清
  • 高清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.75x
  • 0.5x
网页全屏
全屏
00:00
可试看
01|ChatGPT 原理和简单 Chatbot 实现
02|从规则到统计: 语言模型的发展脉络
03|大模型一统江湖:解析 Transformer 架构
04|实战一:Hugging Face Transformers 让大模型为你所用
05|实战二:BERT 带你见证预训练和微调的奇迹
06|实战三:OpenAI API 决战生成式 AI 之巅
07|实战四:DALL·E 创意无限
08|实战五:Telegram Bot 打造专属聊天机器人
结束语|时不我待,拥抱 AI 的未来
本节摘要

课件地址:https://pan.baidu.com/s/1yLg2haWLbScGBwwQyEy6Gw
提取码:t8rv

登录 后留言

全部留言(7)

  • 最新
  • 精选
Geek_697922
老师讲得真好,小白也能听得懂

作者回复: 谢谢支持!

4
iLeGeND
为啥编码器

作者回复: BERT吗?BERT觉得编码器就够了。有几个原因。 BERT 的主要预训练任务是随机掩盖输入句子的一部分词汇,并试图预测被掩盖的词。为了完成这一任务,BERT 只需要对整个句子进行编码。 另外就是简化了模型结构,训练速度更快。

2
Wallace
Token与参数变量是什么关系呢?

作者回复: Token是训练数据-文本data分词之后的东西,参数是模型的一部分,神经网络函数的参数。参数是用来处理Token的。

斜杠青年
收获满满

作者回复: 斜杠青年,爱学习的好青年

xbc
什么时候手撕transformer代码?

作者回复: 很快了

sam
谢谢老师, 了解了GPT的基本实现原理, 很有收获!

作者回复: 谢谢,有收获就好,可以加我微信jackyhuang79进一步探讨

iLeGeND
为啥正常提问的留言说有敏感词汇呢
收起评论