张申傲
2024-09-05
来自北京
第2讲打卡~ 思考题:这种多轮对话的场景,通常需要系统支持Memory记忆功能,简单来说就是将用户与LLM的聊天记录保存下来,并在下次生成内容时传递给LLM。常用的记忆模式包括缓冲记忆、摘要记忆、混合记忆、向量数据库记忆等等,这些功能在LangChain中大多包含了内置的组件。关于Memory系统的实现,感兴趣的同学可以参考下我的文章:https://blog.csdn.net/weixin_34452850/article/details/141716143
2
kevin
2024-09-05
来自江苏
在编码阶段,将历史问答进行压缩