AI 大模型实战高手课
独行
前阿里巴巴高级技术专家,国内某大型互联网公司首席技术官
917 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已更新 6 讲/共 33 讲
第二章:超燃实战,深度玩转 AI 模型 (1讲)
AI 大模型实战高手课
15
15
1.0x
00:00/00:00
登录|注册

04|本地部署:如何本地化部署开源大模型ChatGLM3-6B

你好,我是独行。
前面听我讲了这么多,相信你也很想上手试一试了。从这节课开始,我们进入一个新的章节,这部分我们会学习如何部署开源大模型 ChatGLM3-6B,本地搭建向量库并结合 LangChain 做检索增强(RAG),并且我会带你做一次微调,从头学习大模型的部署、微调、推理等过程。
这节课我们就来讲一下如何本地化部署 ChatGLM3-6B(后面我们简称为 6B)。讲 6B 之前我们先整体看一下目前国内外大模型的发展状况,以便我们进行技术选型。

大模型的选择

当前环境下,大模型百花齐放。我筛选出了一些核心玩家,你可以看一下表格。非核心的其实还有很多,这里我就不一一列举了。厂商虽然很多,但真正在研究技术的没多少,毕竟前面我们讲过,玩大模型投入非常大,光看得见的成本,包括人才、训练和硬件费用,一年就得投入几个亿,不是一般玩家能玩得起的。
当然,也有不少厂商是基于 LLaMA 爆改的,或者叫套壳,不是真正意义上的自研大模型。
ChatGLM-6B 和 LLaMA2 是目前开源项目比较热的两个,早在 2023 年年初,国内刚兴起大模型热潮时,智谱 AI 就开源了 ChatGLM-6B,当然 130B 也可以拿过来跑,只不过模型太大,需要比较多的显卡,所以很多人就部署 6B 试玩。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

1. ChatGLM3-6B是一个开源大模型,可以在本地部署,需要解决计算资源问题,建议申请GPU资源。 2. 部署ChatGLM3-6B需要在Linux环境下进行,推荐使用Python 3.10~3.11版本,Transformers库推荐4.36.2版本,Torch推荐使用2.0及以上版本。 3. 部署ChatGLM3-6B的具体步骤包括克隆代码、安装依赖、下载模型、修改示例代码、命令行启动等。 4. 在部署好模型后,可以进行推理,可以设置超参数来控制模型的推理准确度。 5. ChatGLM3-6B在语义、数学、推理、代码、知识等不同角度的数据集上表现出色,具有多个长文理解能力版本。 6. ChatGLM3-6B的推理效果良好,适合在本地进行部署和应用。 7. ChatGLM3-6B有3个参数可以设置,包括max_length、temperature和top_p,用来控制模型的推理准确度。 8. 新的Prompt格式增加了系统、用户和助手三种角色,以及代码场景中的observation角色,用于控制模型与用户交互的范围和防止输入注入攻击。 9. 部署ChatGLM3-6B的过程相对简单,需要解决计算资源问题,推荐申请GPU资源。 10. 大模型的参数规模62亿表示模型的复杂度和容量,影响模型的学习能力和推理效果。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 大模型实战高手课》
新⼈⾸单¥59
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部