大模型微调技术实战
彭靖田
LangChain 开发者,谷歌开发者专家
1 人已学习
新⼈⾸单¥59
课程目录
已完结/共 68 讲
第一章:大模型高效微调技术揭秘(上) (6讲)
第二章:大模型高效微调技术揭秘(下) (6讲)
第三章:大模型高效微调工具 HF PEFT 入门与实战 (4讲)
第五章:GLM 大模型家族与 ChatGLM3-6B 微调入门 (6讲)
第七章:ChatGPT 大模型训练技术 RLHF (4讲)
第八章:混合专家模型(MoEs)技术揭秘 (4讲)
第九章:Meta AI 大模型 LLaMA (5讲)
第十章:实战 LLaMA2-7B 指令微调 (4讲)
大模型微调技术实战
登录|注册
留言
收藏
沉浸
阅读
分享
手机端
回顶部
当前播放: 5. UniPELT:大模型PEFT统一框架
00:00 / 00:00
高清
  • 高清
1.0x
  • 3.0x
  • 2.5x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.75x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看
1. 章节介绍
2. Before PEFT:Hard Prompt / Full Fine-tune
3. PEFT主流技术分类介绍
4. PEFT - Adapter技术
5. PEFT - Soft Prompt 技术(Task-specific Tuning)
6. PEFT - Soft Prompt 技术(Prompt Encoder)
1. 章节介绍
2. LoRA低秩适配微调技术
3. AdaLoRA自适应权重矩阵微调技术
4. QLoRA量化低秩适配微调技术
5. UniPELT:大模型PEFT统一框架
6. (IA)3:极简主义增量训练方法
1. 章节介绍
2. Hugging Face PEFT 快速入门
3. OpenAI Whisper 模型介绍
4. 实战 LoRA 微调 Whisper-Large-v2 中文语音识别
1. 章节介绍
2. 模型显存占用与量化技术简介
3. GPTQ:专为 GPT 设计的模型量化算法
4. AWQ:激活感知权重量化算法
5. BitsAndBytes(BnB) :模型量化软件包
6. 实战 Facebook OPT 模型量化
1. 章节介绍
2. 基座模型 GLM-130B
3. 扩展模型:联网检索、多模态、代码生成
4. 对话模型 ChatGLM 系列
5. ChatGLM3-6B 微调入门
6. 实战 QLoRA 微调 ChatGLM3-6B
1. 章节介绍
2. 使用 ChatGPT 自动设计生成训练数据的 Prompt
3. 合成数据: LangChain + GPT-3.5 Turbo
4. 数据增强:提升训练数据多样性
5. 提示工程:保持批量生成数据稳定性
6. 实战私有数据微调 ChatGLM3
1. 章节介绍
2. ChatGPT 大模型训练核心技术
3. 基于人类反馈的强化学习(RLHF)技术详解
4. 基于 AI 反馈的强化学习(RLAIF)技术
1. 章节介绍
2. MoEs 技术发展简史
3. MoEs 与大模型结合后的技术发展
4. MoEs 实例研究:Mixtral-8x7B
1. 章节介绍
2. LLaMA 1 大模型技术解读
3. LLaMA 1 衍生模型大家族
4. LLaMA 2 大模型技术解读
5. 申请和获取 LLaMA 2 模型预训练权重
1. 章节介绍
2. 大模型训练技术总结
3. LLaMA2-7B 指令微调上手实战
4. 再谈中文指令微调方法
1. 章节介绍
2. 预训练模型显存计算方法
3. Zero Redundancy Optimizer (ZeRO) 技术详解
4. Microsoft DeepSpeed 框架和核心技术
5. 分布式模型训练并行化技术对比
6. DeepSpeed 与 Transformers 集成训练大模型
7. DeepSpeed 框架编译与安装
8. DeepSpeed ZeRO 配置详解
9. 使用 DeepSpeed 单机多卡、分布式训练
10. 实战 DeepSpeed ZeRO-2 和 ZeRO-3 单机单卡训练
11. DeepSpeed 创新模块:Inference、Compression & Science
1. 章节介绍
2. 蓝色星球的算力霸主:NVIDIA
3. 厚积薄发的江湖大佬:Google
4. 努力追赶的国产新秀:华为
5. 华为昇腾全栈 AI 软硬件平台介绍
6. 实战:华为 Ascend 910B 微调 ChatGLM-6B 模型
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论