16|ChatGPT:是什么让LLM走向舞台中央?
Tyler
你好,我是 Tyler。
在上节课,我们一起学习了 OpenAI GPT 1-3 系列的发展历程,你掌握得如何?
目前大部分人都对 GPT-1 到 GPT-3 的工作都比较熟悉,因为它们之间有很清晰的发展脉络,但是对 OpenAI 之后的工作内容却是一头雾水。
我们的认知似乎也停留在 GPT-3 上,因为在我们的印象里,自从 GPT-3 问世之后,LLM 的生成内容已经开始变得真假难辨,很难区分出后续模型的细微差别了。
达文西诞生
然而,实际情况是,在 GPT-3(Davinci)之后,OpenAI 内部存在着众多不同的“内部版本”。你可能已经非常熟悉像 text-davinci-xxx 这样的 OpenAI API 选项。其实每一个代号的都代表着 OpenAI 的一次尝试,是大语言模型发展过程中积累的宝贵财富。
所以其实我们今天看到的很多能力,并不是一蹴而就的,背后藏着许多不可忽视的细节。在今天的课程中,我将会带你深入理解 OpenAI 是怎么逐步“试”出 ChatGPT 的,让你从这个经典的颠覆式创新里面得到一些启示。
正如下图所示,自 GPT-3 之后,OpenAI 的发展经历了几个关键阶段,主要包括 CodeX、WebGPT 和 ChatGPT。
Codex models
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
OpenAI在GPT-3之后取得了多项关键技术突破,包括Codex、WebGPT和ChatGPT。Codex模型利用GPT-3进行代码生成和静态解释,表现出色。WebGPT使大语言模型能够自主搜索内容、浏览网页并获取知识,提高回答的可信度。通过监督微调训练,OpenAI得到了text-davinci-002,具备了与人类进行自然对话的能力。这些发展阶段展示了OpenAI在大语言模型领域的持续创新和技术突破。ChatGPT的推出标志着OpenAI在强化学习领域的深厚积累成功应用在语言模型的训练过程中,取得了巨大突破。ChatGPT的每一步探索和实验都对应了一个“内部版本”,代表了OpenAI在语言模型发展过程中的不同探索和实验。ChatGPT的推出将大模型技术热度推向新阶段,展望未来的发展前景令人期待。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 大模型系统实战》,新⼈⾸单¥59
《AI 大模型系统实战》,新⼈⾸单¥59
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
全部留言(3)
- 最新
- 精选
- 骨汤鸡蛋面sft model 相对于pretrained model 或base model,有一定的指令识别和意图识别能力,但是产生的内容可能不符合人类期待,所有有一个对齐的过程,因此,我们要如何优化sft model,尤其是符合人类期待的方式优化sft model,这就是reward model 所起的作用。从这个视角看,其实再多找一些“问题-回答对”来微调 sft model 应该也关系不大,但这样成本就比较高了,所以干脆造一个工具 reward model 给 sft model 的产出打分也是个不错的方向。就好比家长、老师会教你说话做事的正确答案,但教的总是有限的,也不一定对,到社会上没人教你,你只能通过别人的脸色、反应来判断做的好或不好。
作者回复: 你好,骨汤鸡蛋面!回答的基本正确,而且比喻也很传神。这里需要注意的是 sft model 也是为了和人类的使用习惯对齐,只不过这种训练方式的数据标注成本较高。基于 RLHF 的训练方法可以有效降低标注成本,同时还可以引入大量的“负样本”,不过它也有缺点,会出现“自己吃自己”的问题。所以这两种方法的关系是互相促进,缺一不可。
2023-09-15归属地:上海3 - lwwebgpt是需要手动标注吗,这样工作量太大了
作者回复: 你好,lw!这里确实需要巨大的标注成本,不过早期的手动标注工作是必要的。因为只有这样才能推动数据飞轮,进而吸引用户使用,形成更长期的数据反馈闭环。
2023-10-13归属地:中国香港2 - 周晓英自我循环问题: 如果模型主要依赖自身生成的数据进行训练和优化,可能会出现自我循环(或称为自我确认偏误)的问题。这种情况下,模型可能会在一些错误或偏见上不断自我强化,而不是学习到新的、正确的或更有用的信息。 近亲繁殖的数据问题: 这种情况是指模型主要依赖与原始训练数据非常相似或重复的数据进行训练,可能会导致过拟合和泛化能力的降低。如果模型不断地只看到它自己生成的数据,它可能无法学习到新的知识或改进它的表现。 RLHF(Reinforcement Learning from Human Feedback)与 SFT(Supervised Fine-Tuning): RLHF 和 SFT 是两种不同的训练策略。RLHF 通常是通过从人类反馈中学习,以优化模型的性能,而 SFT 是通过有监督的方式,使用标签数据对模型进行微调。 在 RLHF 中,通常会收集人类对模型生成内容的反馈,然后利用这些反馈来指导模型的优化。而 SFT 则是基于一个预先标注的数据集来进行的,通常会有一个明确的损失函数来指导优化。 RLHF 更依赖于模型与环境的交互,而 SFT 更依赖于预先准备好的训练数据。 两者可以结合使用,以提高模型的性能和泛化能力。例如,可以首先使用 SFT 微调模型,然后使用 RLHF 进一步优化模型,或者相反。 为了解决自我循环和近亲繁殖的数据问题,通常需要确保模型在训练过程中有足够多样化的数据,并且有时会结合人类的反馈和外部数据来指导模型的训练和优化。2023-10-02归属地:美国11
收起评论