作者回复: 同学你好!你关注的内容就是我们专栏的目标。 专栏中的内容都来自一线工业级AI大模型系统的真实经验,这也是这个专栏最独特的价值,毕竟真实的工业级AI大模型系统的实践经验是大家很难有机会接触到的。 希望大家能够通过这个专栏开阔视野,获得前瞻性的指导,理解圈内人眼中真正的大模型技术是什么,而不是隔靴搔痒、人云亦云的浅层知识。
作者回复: 你好,Juha!你可以使用 Langchain 做一些生产力工具,但是不要将它用在 toB 或 toC 的在线生产环境当中,这会造成很大的性能、可用性和安全的隐患。
作者回复: 你好,R_R!看来你在之前接触过相关知识,非常好。提示语工程可以有效增强模型的理解和记忆能力,补充外部知识。但是,如果想让新知识之间产生“化学反应”,涌现新的智能,还需要 finetune 的配合。在接下来的课程中,也期待你的反馈。
作者回复: 你好,peter!第一个问题是共性问题,建议你参考我在其他同学下的回答。第二个问题的答案是 Yes,相信你在学完后续的课程后会有能力完成。对于第三个问题,我的建议是结合自身的预算选择一台支持 CUDA 的自用级 N 卡的机器,这样在做实验时会更方便。选择自用级而非工作站级显卡,是因为我们的日常使用强度和维保需求没有那么高,无需承担这部分溢价。 至于大模型的端到端训练实验,考虑到性价比则建议使用按量付费的云服务器进行。
作者回复: 你好,胖胖虎!回答的非常好👍🏻
作者回复: 你好,糖糖丸!回答得很好,在接下来的课程中,也期待你的反馈。
作者回复: 你好,一只豆! 很好的问题。大模型系统的性能评估,要分为几个层面。首先要明确业务系统的北极星指标,这部分需要配合在线 AB 实验系统进行监测。其次要定义客户的动线,也就是你说的用例,要想办法设计用户反馈闭环,让用户的反馈信息不仅能够成为 LLM 的评估指标,还能成为 LLM 的训练监督信号。最后需要评估 LLM 的本身的能力,其中包括对 LLM 的“语言知识”和“世界知识”的考察,这些方法在后面的课程中会逐一展开。在接下来的课程中,也期待你的反馈。
作者回复: 总结的非常好!随着课程的继续,我们会一同见证这个“大胖孩子”的不断成长。