05|大模型微调:如何基于ChatGLM3-6B+Lora构建基本法律常识大模型?
独行
你好,我是独行。
上节课我们本地化部署了 ChatGLM3-6B,对于大模型有了进一步的了解。这节课我会从实际需求出发,完整地讲解一个 AI 大模型需求,从提出到完整落地的过程,学完这节课的内容,你也可以在自己所在的企业进行 AI 大模型落地实践了。
目前我们接触的无论是千亿大模型,如 130B、ChatGPT,还是小规模的大模型,如 6B、LLaMA2,都是通用大模型,就是说通过通用常识进行预训练的,如果我们在实际使用过程中,需要大模型具备某一特定领域知识的能力,我们就需要对大模型进行能力增强,具体如何做呢?
如何增强模型能力?
微调是其中的一个方法,当然还有其他方式,比如外挂知识库或者通过 Agent 调用其他 API 数据源,下面我们详细介绍下这几种方式的区别。
微调是一种让预先训练好的模型适应特定任务或数据集的方案,成本相对较低,这种情况下,模型会学习训练者提供的微调数据,并且具备一定的理解能力。
知识库使用向量数据库或者其他数据库存储数据,为大语言模型提供信息来源外挂。
API 和知识库类似,为大语言模型提供信息来源外挂。
简单理解,微调相当于让大模型去学习一门新的学科,在回答的时候进行闭卷考试,知识库和 API 相当于为大模型提供了新学科的课本,回答的时候进行开卷考试。几种模式并不冲突,我们可以同时使用几种方案来优化模型,提升内容输出能力,下面我简单介绍下几种模式的优缺点。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
1. 大模型微调是一种让预先训练好的模型适应特定任务或数据集的方案,成本相对较低,模型会学习训练者提供的微调数据,并具备一定的理解能力。 2. 知识库和API提供了大语言模型的信息来源外挂,与微调相比,知识库模式可以随时补充数据,即时生效,而微调则通过在一定量的数据集上的训练,增加大模型的相关常识及思维,从而进行推理。 3. 在企业实际需求落地的过程中,需先进行完整的需求分析,确定落地方式,如微调、知识库或API。 4. 针对法律小助手的需求分析,确定使用微调方式进行,因为法律知识需要一定的逻辑能力,不是纯文本检索,微调可以增加大模型的法律相关常识及思维,从而进行推理. 5. 准备数据的方式包括从公共数据集下载并加入私有化的知识,或者完全自己整理数据,以满足微调所需的数据集格式. 6. 通过Python语言处理CSV文件,构建大语言模型的微调数据集,转化为JSON格式,以满足微调的数据要求.
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 大模型实战高手课》,新⼈⾸单¥59
《AI 大模型实战高手课》,新⼈⾸单¥59
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论