大模型微调技术实战
精通高效微调核心技术,从理论到实战落地大模型定制化训练
彭靖田  LangChain 开发者,谷歌开发者专家
视频课
已完结·共 68 讲
|
1 人已学
|
收藏
立即购买
59

你将获得

"1. 系统掌握 PEFT 主流高效微调技术,包括 Adapter、LoRA、QLoRA 等核心方法,理解不同技术的适用场景与实现原理。​

2. 熟练运用 Hugging Face PEFT 工具库,实战完成 Whisper、ChatGLM3、LLaMA2 等主流大模型的定制化微调。​
3. 深入理解模型量化技术(GPTQ/AWQ/BitsAndBytes),掌握降低显存占用、提升训练效率的关键技巧。​
4. 掌握 RLHF/RLAIF 等先进训练技术及 MoEs 混合专家模型原理,具备大模型性能优化与能力增强的实战能力。​
5. 学会使用 DeepSpeed 分布式训练框架,实现单机多卡 / 分布式大模型训练,同时掌握私有数据微调与国产化适配(华为昇腾)方案。"

课程介绍

“本课程聚焦大模型微调核心技术,从理论解析到实战落地全面覆盖高效微调的全流程知识体系。课程开篇通过前两章系统揭秘 PEFT(参数高效微调)技术:先梳理 Hard Prompt/Full Fine-tune 等传统方法局限,再详细讲解 Adapter、Soft Prompt(Task-specific Tuning 与 Prompt Encoder)等主流技术分类,深入解析 LoRA 低秩适配、AdaLoRA 自适应调整、QLoRA 量化低秩适配等关键方法,以及 UniPELT 统一框架和 (IA)³ 极简训练思路,夯实高效微调理论基础。​
第三章聚焦 Hugging Face PEFT 工具实战,从快速入门到结合 OpenAI Whisper 模型,手把手教学 LoRA 微调 Whisper-Large-v2 实现中文语音识别,强化工具应用能力。第四章深入模型量化技术,解析显存占用原理,详解 GPTQ、AWQ 等量化算法及 BitsAndBytes 工具包,通过 Facebook OPT 模型量化实战,掌握降低训练成本的核心技巧。​
后续章节聚焦主流大模型微调实践:第五章至第六章围绕 GLM 家族展开,介绍基座模型与对话模型特性,实战 QLoRA 微调 ChatGLM3-6B,并通过 ChatGPT 生成训练数据、LangChain 合成数据等方法,完成私有数据定制化微调。第七章解析 ChatGPT 核心训练技术 RLHF 及 RLAIF,第八章揭秘混合专家模型(MoEs)技术原理与 Mixtral-8x7B 实例。​
第九章至第十章聚焦 LLaMA 系列,解读 LLaMA 1/2 技术细节与衍生模型,实战 LLaMA2-7B 指令微调,总结中文指令微调优化方法。第十一章深入分布式训练,详解 Microsoft DeepSpeed 框架核心技术 ZeRO 优化器,对比并行化技术,通过单机多卡、ZeRO-2/3 训练实战,掌握大规模模型训练能力。第十二章关注国产化适配,介绍华为昇腾全栈 AI 平台,实战在 Ascend 910B 上微调 ChatGLM-6B,覆盖国产化落地场景。​
课程通过 “理论解析 + 工具实操 + 场景实战” 的三层结构,助力学员从基础技术到高级应用全面突破,具备大模型定制化训练、性能优化与国产化部署的全流程实战能力。”

课程目录

“第一章:大模型高效微调技术揭秘(上) 
 1. 章节介绍
 2. Before PEFT:Hard Prompt / Full Fine-tune
 3. PEFT 主流技术分类介绍
 4. PEFT - Adapter 技术
 5. PEFT - Soft Prompt 技术(Task-specific Tuning)
 6. PEFT - Soft Prompt 技术(Prompt Encoder)
第二章:大模型高效微调技术揭秘(下) 
 1. 章节介绍
 2. LoRA 低秩适配微调技术
 3. AdaLoRA 自适应权重矩阵微调技术
 4. QLoRA 量化低秩适配微调技术
 5. UniPELT:大模型 PEFT 统一框架
 6. (IA)3:极简主义增量训练方法
第三章:大模型高效微调工具 Hugging Face PEFT 入门与实战 
    1. 章节介绍
 2. Hugging Face PEFT 快速入门
 3. OpenAI Whisper 模型介绍
 4. 实战 LoRA 微调 Whisper-Large-v2 中文语音识别
第四章:大模型量化技术入门与实战 
    1. 章节介绍
 2. 模型显存占用与量化技术简介
 3. GPTQ:专为 GPT 设计的模型量化算法
 4. AWQ:激活感知权重量化算法
 5. BitsAndBytes(BnB) :模型量化软件包
 6. 实战 Facebook OPT 模型量化
第五章:GLM 大模型家族与 ChatGLM3-6B 微调入门 
    1. 章节介绍
 2. 基座模型 GLM-130B
 3. 扩展模型:联网检索、多模态、代码生成
 4. 对话模型 ChatGLM 系列
 5. ChatGLM3-6B 微调入门
 6. 实战 QLoRA 微调 ChatGLM3-6B
第六章:实战私有数据微调 ChatGLM3 
    1. 章节介绍
 2. 使用 ChatGPT 自动设计生成训练数据的 Prompt
 3. 合成数据: LangChain + GPT-3.5 Turbo
 4. 数据增强:提升训练数据多样性
 5. 提示工程:保持批量生成数据稳定性
 6. 实战私有数据微调 ChatGLM3
第七章:ChatGPT 大模型训练技术 RLHF 
    1. 章节介绍
 2.  ChatGPT 大模型训练核心技术
 3. 基于人类反馈的强化学习(RLHF)技术详解
 4. 基于 AI 反馈的强化学习(RLAIF)技术
第八章:混合专家模型(MoEs)技术揭秘 
    1. 章节介绍
 2. MoEs 技术发展简史
 3. MoEs 与大模型结合后的技术发展
 4. MoEs 实例研究:Mixtral-8x7B
第九章:Meta AI 大模型 LLaMA 
    1. 章节介绍
 2. LLaMA 1 大模型技术解读
 3. LLaMA 1 衍生模型大家族
 4. LLaMA 2 大模型技术解读
 5. 申请和获取 LLaMA 2 模型预训练权重
第十章:实战 LLaMA2-7B 指令微调 
    1. 章节介绍
 2. 大模型训练技术总结
 3. LLaMA2-7B 指令微调上手实战
 4. 再谈中文指令微调方法
第十一章:大模型分布式训练框架 Microsoft DeepSpeed 
    1. 章节介绍
 2. 预训练模型显存计算方法
 3. Zero Redundancy Optimizer (ZeRO) 技术详解
 4. Microsoft DeepSpeed 框架和核心技术
 5. 分布式模型训练并行化技术对比
 6. DeepSpeed 与 Transformers 集成训练大模型
 7. DeepSpeed 框架编译与安装
 8. DeepSpeed ZeRO 配置详解
 9. 使用 DeepSpeed 单机多卡、分布式训练
 10. 实战 DeepSpeed ZeRO-2 和 ZeRO-3 单机单卡训练
 11. DeepSpeed 创新模块:Inference、Compression & Science
第十二章:国产化适配 - 基于华为昇腾 910 微调 ChatGLM-6B 
    1. 章节介绍
 2. 蓝色星球的算力霸主:NVIDIA
 3. 厚积薄发的江湖大佬:Google
 4. 努力追赶的国产新秀:华为
 5. 华为昇腾全栈 AI 软硬件平台介绍
 6. 实战:华为 Ascend 910B 微调 ChatGLM-6B 模型”

查看更多

订阅须知

  1. 订阅成功后,推荐通过“极客时间”App 端、Web 端学习。
  2. 本课程为虚拟商品,交付形式为视频,一经订阅,概不退款。
  3. 订阅后分享海报,每邀一位好友订阅有现金返现。
  4. 戳此先充值再购课更划算,还有最新课表、超值赠品福利。
  5. 企业采购推荐使用“极客时间企业版”便捷安排员工学习计划,掌握团队学习仪表盘。
  6. 戳此申请学生认证,订阅课程享受原价 5 折优惠。
  7. 价格说明:划线价、订阅价为商品或服务的参考价,并非原价,该价格仅供参考。未划线价格为商品或服务的实时标价,具体成交价格根据商品或服务参加优惠活动,或使用优惠券、礼券、赠币等不同情形发生变化,最终实际成交价格以订单结算页价格为准。
讲师

彭靖田

LangChain 开发者,谷歌开发者专家

" 彭靖田,Google Developers Expert,加州大学圣迭戈分校访问学者,在美国期间从事深度学习与生物医疗技术的结合研究。毕业于浙江大学竺可桢学院,获计算机科学学士学位。 开源项目 Kubeflow 维护者,TensorFlow 贡献者,曾一度成为...查看更多
看过的人还看了
云时代的 JVM 原理与实战
康杨
京东资深架构师

39讲 | 4541 人已学习

¥59¥129
Rust 语言从入门到实战
唐刚
Rust 语言中文社区联合创始人

36讲 | 7495 人已学习

¥59¥129
SRE 实战手册
赵成
蘑菇街技术总监

13讲 | 14304 人已学习

¥29¥68
重学线性代数
朱维刚
前阿里云资深技术专家

19讲 | 9700 人已学习

¥59¥99
手写 Python 虚拟机
海纳
华为资深编译专家,原 Huawei JDK 团队负责人

35讲 | 1968 人已学习

¥59¥99
从 LLM 原理剖析到手写实现 ChatPDF
陈旸
清华大学计算机博士

1讲 | 352 人已学习

¥29¥59