15|OpenAI闭源模型的微调流程和Function Calling微调
黄佳
你好,我是黄佳。
开源模型的微调大家耳熟能详,但是很少有人了解 OpenAI 的 GPT 模型也可以微调。今天我们就来探讨如何微调 OpenAI 的闭源模型,以及使用 Function Calling 进行特定领域微调的流程和要点。
OpenAI 的 GPT 系列模型经过海量数据的预训练,已经具备了强大的自然语言理解和生成能力。但面对特定领域的应用场景,预训练模型难免会有知识盲区和表现欠佳的情况。这时候,我们就需要用特定领域的数据对模型进行微调,让模型更加贴合具体的任务需求。
微调后的模型可以更好地理解特定领域的术语、口吻和逻辑,生成更加准确、专业的内容。比如在法律领域微调后,模型可以更好地分析案情,援引法条,给出有说服力的法律意见。因此,微调 GPT 家族的模型还是能进一步拓展 OpenAI 这一系列模型的应用场景和落地空间。
OpenAI 的 Fine-Tuning 基本流程
OpenAI 为 GPT-3.5 系列的模型提供了 Fine-Tuning API,我们可以用自己的数据对模型进行微调,至于 GPT-4 系列的模型,只有 gpt-4-0613 可以进行实验性质的微调。
主要步骤如下:
准备符合要求的微调数据集。微调数据要采用 JSONL 格式,每行代表一个训练样本。每个样本是一个 JSON 对象,主要包含以下字段:
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
1. OpenAI提供了GPT模型的Fine-Tuning API,允许用户使用自己的数据对模型进行微调,以适应特定领域的需求。 2. 利用GPT模型进行微调数据的创建,可以通过OpenAI的API生成特定领域的问答数据,用于后续的模型微调。 3. 通过OpenAI库提供的files.create方法,可以上传微调数据文件到OpenAI平台进行微调准备。 4. 提交微调作业需要调用OpenAI库的fine_tuning.jobs.create方法,指定训练文件ID、基础模型和超参数,以创建一个微调作业。 5. 轮询微调作业状态,直至作业状态变为"succeeded"、"failed"或"cancelled",通过fine_tuning.jobs.retrieve方法获取作业状态,并等待10秒后再次查询. 6. 运行微调后的模型,可以使用OpenAI的chat.completions.create方法,指定微调后的模型ID和对话内容,获取模型的回复.
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《大模型应用开发实战》,新⼈⾸单¥59
《大模型应用开发实战》,新⼈⾸单¥59
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论