44|如何面对不断更新的大模型?
郑晔

你好,这里是极客头条。今天我们聊聊大模型。
大模型领域本身就是一个发展迅速的领域:才说 GPT 3.5 好,又来了个更强大的 GPT 4,没过多久,GPT-o1 又展现出强大的推理能力;今天有个 Llama,明天出个 QWen,后天 Mistral 也很强大;总而言之,只要你关注,总会有新的大模型以各种能力展现在你面前。这确实是一件令人焦虑的事情。
👇👇👇
大模型的不变
虽说大模型领域是以“变”为主,不断推陈出新,但从做一个软件系统的角度,我想先谈谈大模型的不变。因为在软件开发中,我们一直在追求的就是将变与不变隔离开,让不变的东西尽可能稳定下来。
大模型的不变首先体现在 API 上。我在前面的内容说过,OpenAI API 在某种意义上已经成为了行业的事实标准,加之集中接入的引入,我们只要使用统一的 OpenAI 接口,几乎可以访问所有的模型。从这个角度上说,访问大模型的 API 就是统一的。
有了统一的大模型 API,也就意味着我们的代码可以通过相同的方式进行处理,无需考虑不同 API 之间的差异性。站在开发的角度看,这是代码稳定的前提条件。不同的模型之间的差异,主要体现在给 API 传入的模型参数的差异。
公开
同步至部落
取消
完成
0/2000
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结

1. 大模型的快速发展和不断涌现给人带来焦虑感。 2. 大模型的API的统一性,使得代码可以通过相同的方式进行处理,无需考虑不同API之间的差异性,从而保证代码的稳定性。 3. 大模型的底层技术在短时间内并没有更大的进步,新模型的出现主要是工程层面的进步,是量变而非质变。 4. 大模型的底线能力是不变的,大模型中的基础能力如聊天、按格式输出内容、基本的推理能力等是不变的。 5. 在应用开发中,选择更好的大模型并不是核心,核心是将AI嵌入到业务流程中去,让AI改造业务流程。 6. 理解大模型现在的水准可以帮助做出更好的架构决策,如将不同的请求分发给不同的模型,以节省调用模型的成本。 7. 引入大模型路由,根据用途的差异采用不同的模型,以保证应用代码的稳定。 8. 评估什么模型适合用在什么地方是一个技术选型的工作,一旦确定,在一段时间内是可以保持稳定的。
该试读文章来自《极客头条》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论