大模型微调实践课
赵鹏昊/李杰
百度智能云千帆 ModelBuilder 平台算法负责人 / 算法工程师
5 人已学习
新⼈⾸单
¥
29
课程目录
已完结/共 12 讲
模块一:必备大模型基础知识
(3讲)
01|大模型的发展:从GPT-1到ChatGPT的发展历程
时长 32:46
02|Prompt调教指南:大模型的正确打开方式
时长 35:57
03|大模型的基石:认识Transformer
时长 17:22
模块二:大模型微调技巧攻略
(6讲)
04|检索增强生成(RAG):如何让大模型回答更准确?
时长 25:15
05|模型评估:如何准确测评大模型的能力?
时长 16:05
06|微调数据准备:如何构造高质量微调数据?
时长 20:06
07|全量参数微调:如何让大模型完成特定领域任务?
时长 23:07
08|LoRA微调:如何高效微调大模型?
时长 14:25
09|Post-Pretrain:如何进一步注入领域知识?
时长 19:10
模块三:大模型微调实践演练
(3讲)
10|案例1:如何微调一个英语口语练习大模型?
时长 24:54
11|案例2:如何微调一个作文批改大模型?
时长 23:23
12|案例3:如何微调一个角色扮演大模型?
时长 22:06
大模型微调实践课
登录
|
注册
留言
收藏
沉浸
阅读
分享
手机端
回顶部
Sorry, your browser doesn't support embedded videos.
当前播放: 01|大模型的发展:从GPT-1到ChatGPT的发展历程
00:00
/ 00:00
高清
高清
1.0x
2.0x
1.5x
1.25x
1.0x
0.75x
0.5x
音量
网页全屏
全屏
00:00
付费课程,可试看
01|大模型的发展:从GPT-1到ChatGPT的发展历程
02|Prompt调教指南:大模型的正确打开方式
03|大模型的基石:认识Transformer
04|检索增强生成(RAG):如何让大模型回答更准确?
05|模型评估:如何准确测评大模型的能力?
06|微调数据准备:如何构造高质量微调数据?
07|全量参数微调:如何让大模型完成特定领域任务?
08|LoRA微调:如何高效微调大模型?
09|Post-Pretrain:如何进一步注入领域知识?
10|案例1:如何微调一个英语口语练习大模型?
11|案例2:如何微调一个作文批改大模型?
12|案例3:如何微调一个角色扮演大模型?
本节摘要
课件下载链接:
https://pan.baidu.com/s/13kJYS1TxqIPQ3cbXgk2HsQ
提取码: hpqq
登录
后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论