21|如何面对不断更新的大模型
郑晔

你好,我是郑晔!
前面我们用了二十讲的篇幅,讨论 AI 应用开发的主要内容。所有这些内容的前提条件都是我们基于已有的大模型,但是,我们并没有讨论如何选择大模型,原因很简单,大模型发展很快,今天选择的理由可能明天就不成立了。
大模型领域本身就是一个发展迅速的领域:才说 GPT 3.5 好,又来了个更强大的 GPT 4,没过多久,GPT-o1 又展现出强大的推理能力;今天有个 Llama,明天出个 QWen,后天 Mistral 也很强大;总而言之,只要你关注,总会有新的大模型以各种能力展现在你面前。这确实是一件令人焦虑的事情。
这一讲,我们就来谈谈,如何面对这些不断更新的大模型。
大模型的不变
虽说大模型领域是以“变”为主,不断推陈出新,但从做一个软件系统的角度,我想先谈谈大模型的不变。因为在软件开发中,我们一直在追求的就是将变与不变隔离开,让不变的东西尽可能稳定下来。
大模型的不变首先体现在 API 上。我在前面的内容说过,OpenAI API 在某种意义上已经成为了行业的事实标准,加之集中接入的引入,我们只要使用统一的 OpenAI 接口,几乎可以访问所有的模型。从这个角度上说,访问大模型的 API 就是统一的。
有了统一的大模型 API,也就意味着我们的代码可以通过相同的方式进行处理,无需考虑不同 API 之间的差异性。站在开发的角度看,这是代码稳定的前提条件。不同的模型之间的差异,主要体现在给 API 传入的模型参数的差异。
公开
同步至部落
取消
完成
0/2000
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结

1. 大模型的快速发展给人带来焦虑感,但大模型的底线能力是不变的,包括聊天、按格式输出内容、基本的推理能力等。 2. 大模型的底层技术在短时间内并没有更大的进步,新模型的出现主要是工程层面的进步,是量变而非质变。 3. 在应用开发中,核心点并不是选择更好的大模型,而是自己的业务,大模型只能起到辅助的作用,不能过分高估其作用。 4. 理解大模型现在的水准可以帮助做出更好的架构决策,比如将一部分请求交给本地的模型完成简单的推理工作,以节省调用模型的成本。 5. 大模型代理和大模型路由的区别在于,大模型代理提供标准的OpenAI API,而大模型路由根据用途确定不同的大模型,请求方不用指定模型。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《程序员的 AI 开发第一课》,新⼈⾸单¥59
《程序员的 AI 开发第一课》,新⼈⾸单¥59
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
全部留言(1)
- 最新
- 精选
- hao-kuai看似在讲大模型,实则在教用已有的软件设计知识来处理大模型这种新技术带来的变化
作者回复: 你抓住重点了
2024-12-18归属地:江苏
收起评论