大模型应用开发实战
黄佳
新加坡科研局资深研究员
1619 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已更新 16 讲/共 25 讲
大模型应用开发实战
15
15
1.0x
00:00/00:00
登录|注册

15|OpenAI闭源模型的微调流程和Function Calling微调

你好,我是黄佳。
开源模型的微调大家耳熟能详,但是很少有人了解 OpenAI 的 GPT 模型也可以微调。今天我们就来探讨如何微调 OpenAI 的闭源模型,以及使用 Function Calling 进行特定领域微调的流程和要点。
OpenAI 的 GPT 系列模型经过海量数据的预训练,已经具备了强大的自然语言理解和生成能力。但面对特定领域的应用场景,预训练模型难免会有知识盲区和表现欠佳的情况。这时候,我们就需要用特定领域的数据对模型进行微调,让模型更加贴合具体的任务需求。
微调后的模型可以更好地理解特定领域的术语、口吻和逻辑,生成更加准确、专业的内容。比如在法律领域微调后,模型可以更好地分析案情,援引法条,给出有说服力的法律意见。因此,微调 GPT 家族的模型还是能进一步拓展 OpenAI 这一系列模型的应用场景和落地空间。

OpenAI 的 Fine-Tuning 基本流程

OpenAI 为 GPT-3.5 系列的模型提供了 Fine-Tuning API,我们可以用自己的数据对模型进行微调,至于 GPT-4 系列的模型,只有 gpt-4-0613 可以进行实验性质的微调。
主要步骤如下:
准备符合要求的微调数据集。微调数据要采用 JSONL 格式,每行代表一个训练样本。每个样本是一个 JSON 对象,主要包含以下字段:
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

1. OpenAI提供了GPT模型的Fine-Tuning API,允许用户使用自己的数据对模型进行微调,以适应特定领域的需求。 2. 利用GPT模型进行微调数据的创建,可以通过OpenAI的API生成特定领域的问答数据,用于后续的模型微调。 3. 通过OpenAI库提供的files.create方法,可以上传微调数据文件到OpenAI平台进行微调准备。 4. 提交微调作业需要调用OpenAI库的fine_tuning.jobs.create方法,指定训练文件ID、基础模型和超参数,以创建一个微调作业。 5. 轮询微调作业状态,直至作业状态变为"succeeded"、"failed"或"cancelled",通过fine_tuning.jobs.retrieve方法获取作业状态,并等待10秒后再次查询. 6. 运行微调后的模型,可以使用OpenAI的chat.completions.create方法,指定微调后的模型ID和对话内容,获取模型的回复.

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《大模型应用开发实战》
新⼈⾸单¥59
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部