20|模型微调:创建一个属于自己的大模型
郑晔

你好,我是郑晔!
前面两讲,我们讲了如何使用别人创建好的开源模型,这可以帮助我们控制成本,或是规避风险。这些大模型都需要与我们前面讲的技术配合起来,才能够实现特定的应用功能。除了使用别人的模型,我们也可以使用自己的模型。
前面讲 RAG 时,我们说过,它本质上是让大模型知道更多的东西,尤其是属于你自己业务领域的东西。当时我们就说,RAG 只是其中的一种选择,还有另外一种选择,就是模型微调。这一讲,我们就来说说模型微调。
什么是模型微调
模型微调,顾名思义,就是对模型微微做一些调整。为什么要做微调呢?如果可以的话,每个公司都想拥有一个属于自己的大模型。但是,现实比较残酷,训练一个大模型需要花太多的钱。按照一些大公司的说法,一个千亿参数的大模型,训练一次的成本大约需要几百万美元。这显然就超过一个普通公司承受的范围。虽然我们无法训练一个属于自己的大模型,但一个好消息是,我们可以做模型微调。
大模型是构建于神经网络基础之上的,神经网络可以理解成一个一个的神经元构建的网络。训练模型,就是在调整神经元之间的连接方式。一次完整的训练就相当于把所有的神经元连接都调整一遍,这个计算规模相当之大,是我们无法承受的。
所谓微调,就是把一个训练好的模型中的一部分连接重新调整。因为只做了一部分的调整,所以,规模就要小得多,训练成本也就要小得多。
公开
同步至部落
取消
完成
0/2000
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结

1. 模型微调是对已训练好的模型进行部分连接的重新调整,以减小训练成本和提高数据准确性。 2. 模型微调需要准备训练数据、训练模型、评估结果和使用模型,其中准备数据是最耗时耗力的过程。 3. LLaMa Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台,支持多种模型和训练方法,提供图形化界面。 4. LLaMa Factory 支持 alpaca 格式和 sharegpt 格式的数据,需要将数据改写成相应格式并存储到指定目录。 5. 在微调过程中,采用了缺省的 LoRA(Low-Rank Adaptation)技术,可以将微调的模型转换成 GGUF 格式以接入到 Ollama 中。 6. 模型微调的关键是数据准备,需要准备大量的数据,并按照格式进行准备。 7. 训练好的模型可以通过 Ollama 接入到实际的项目中,从而使用自己的模型。 8. 模型微调是利用自己的训练数据对已经训练好的大模型进行微调,可以选择在微调和RAG之间选择,或者二者共同使用。 9. 在微调过程中,需要懂业务的人参与数据准备,训练阶段会比较耗时。 10. 模型微调的关键是准备好数据,不同的训练工具格式需要按照格式把数据准备好。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《程序员的 AI 开发第一课》,新⼈⾸单¥59
《程序员的 AI 开发第一课》,新⼈⾸单¥59
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
全部留言(1)
- 最新
- 精选
- hao-kuai训练模型不需要纠错吗?还是说准确性在训练数据那里已经解决了?2024-12-16归属地:江苏
收起评论