领域大模型微调案例课
登录|注册
留言
收藏
沉浸
阅读
分享
手机端
回顶部
当前播放: 13|Moe 模型的优缺点
00:00 / 00:00
高清
  • 高清
1.0x
  • 3.0x
  • 2.5x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.75x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看
01|为什么要做领域模型?
02|ChatGPT 训练回顾及领域模型微调范式
03|领域微调基础模型选择 LLaMA、GLM、BLoom 及其对比
04|领域微调微调加速 prompt tuningLoRAadapter
05|金融领域微调模型项目解读:FinGPT、Cornucopia-LLaMA-Fin-Chinese 等
06|法律领域微调模型项目解读:LawGPT_zh、 Lawyer LLaMA 等
07|医疗领域微调模型项目解读:ChatDoctor、 Huatuo 等
08|教育领域微调模型项目解读:Taoli、Media LLaMA 等
09|多步骤微调、扩充 LLAma 词表、遗忘问题、幻觉问题的一些思考
10|大模型长文本技术实现思路及代表案例
11|大模型长文本技术主流评测
12|嫁接模型 SOLAR 及 Moe 模型基本理解
13|Moe 模型的优缺点
14|现有开源的代表 Moe 模型项目
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论