16|Langchain里的“记忆力”,让AI只记住有用的事儿
该思维导图由 AI 生成,仅供参考
- 深入了解
- 翻译
- 解释
- 总结
Langchain的“记忆力”功能为AI带来了新的对话处理方法,通过内置的BufferWindow记忆功能,AI能够记住最近的对话上下文,保持对话的连贯性。Langchain还提供了ConversationSummaryMemory和ConversationSummaryBufferMemory,使得AI能够在多轮对话中保持上下文的连贯性,并且结合了BufferMemory和SummaryMemory的优点,能够更精确地记录最近几轮对话的内容。此外,Langchain还提供了ConversationEntityMemory,能够自动帮助提取关键信息,如订单号、邮箱地址等,为开发者提供了更多的灵活性和便利。这些功能使得AI在处理对话时更加智能和贴近真实对话的连贯性,为开发者提供了更多的灵活性和便利。Langchain的技术特点在于提供了多种记忆功能,使得AI在处理对话时能够更加智能和贴近真实对话的连贯性,为开发者提供了更多的灵活性和便利。
《AI 大模型之美》,新⼈⾸单¥68
全部留言(19)
- 最新
- 精选
- 张弛老师讲的太好了,通过对AI的能力探索,感觉有了跟自己业务结合的空间,但是如果需要身边的朋友使用的话,还是需要封装成网页或者app,而之前例子里面的HuggingFace国内访问还是挺慢的,能否介绍一下如果就是想把实战提高篇里的chatbot做一些定制化,封装为网页给别人在国内使用,推荐使用什么方式部署(例如腾讯云硅谷?),谢谢。
作者回复: 目前大家综合考虑延时,基本上都是 Azure 或者 腾讯云北美节点
2023-04-15归属地:中国台湾2 - Geek_429477每天第一个追更. 请问一下大佬: 比如一个客服机器人,卖很多种类的商品,按照大佬之前的文章思路,QA问题集如下 Q:你们卖哪些产品 A:图书,玩具,衣服.......(很多字) 一个用户问,你们卖电子产品吗? 如果先搜索再提示,answer的字数太多,造成token不够,该怎么解决
作者回复: 不是左右问题都应该灌到FAQ里呀 看一下17讲里,通过拿到Action Input是“电子产品”,问题是“询问商品类别”,通过一个Tools来解决这种,输入可能性很多的情况可能更合适。
2023-04-13归属地:北京22 - Oli张帆Langchain确实是非常有用的利器,虽然我目前的项目使用NodeJS,但是里面的很多思路非常值得借鉴。
作者回复: Langchain现在也有JS版本啦,可以去看一下
2023-04-13归属地:北京2 - Jelly请问老师,每个用户单独的内存会话怎么做?需要用其他数据库存储起来?
作者回复: 通过用户id或者session id维护一个map类型的数据结构好了。也可以用 https://python.langchain.com/en/latest/modules/memory/examples/redis_chat_message_history.html 通过redis存储起来
2023-04-23归属地:广东2 - Geek_053159老师 在chatgpt 界面使用它时 是不是也用到了memory呢 每次我们的问话都会全部发送给它 当超过token数量时 chatGPT会自动总结之前的会话内容吗 还是需要我们提示它来总结 然后再把总结和新的问话结合起来发给它
作者回复: 本质上也是memory,就是把历史对话记录也用上了。 具体OpenAI是怎么做的我们不知道,因为这个状态它是在服务端维护的。
2023-04-21归属地:四川 - Toni使用 LangChain 中的 KnowledgeGraphMemory,检测其处理对话信息的能力。 from langchain.memory import ConversationKGMemory # 知识图谱记忆 llm = OpenAI(temperature=0) memory=ConversationKGMemory(llm=llm) template = """The following is a conversation between a human and an AI. The AI provides lots of specific details from its context. AI uses all the information contained in "Related Information", "Current Conversation" and "Context" If the AI does not know the answer to a question, it truthfully says it does not know,and does not hallucinate. answer in 20 word. 对话如下 第一轮 Q1 (喂给了AI 这些信息,牵扯到几个方向,试AI 如何提取并处理这些信息) input="I am James and I'm helping Will. He's an engineer working in IBM's electronics department. He encountered a problem in the 'Knowledge Graph Memory' project" A1 > Finished chain. " Hi James, I understand that Will is having difficulty with the 'Knowledge Graph Memory' project. I'm not familiar with this project, but I can help you find the resources you need to solve the problem." (回答中AI 分出了James 和 Will,其它的大差不差。) 第二轮对话 Q2 input="What do you know about Will?" A2 > Finished chain. " Will is an engineer working in IBM's electronics department. He is currently working on a Knowledge Graph Memory project and has encountered a problem." (AI 充分利用了在第一轮对话中得到的有关Will 的信息。) 第三轮对话 A3 input="What do you know about me?" Q3 > Finished chain. " I know that you are talking to me right now and that you asked me a question about Will. I also know that Will is an engineer working in IBM's electronics department and is working on the Knowledge Graph Memory project." (AI 没有捕捉到 me, I, James 之间的关系,尽管它用了Hi James, ) 第四轮对话 A4 (继续追问上轮中出现的漏洞) input="What is my name?" Q4 > Finished chain. "Your name is John Smith." (AI 彻底错了) 结果有点意外,是算法有错还是参数设置有待改进? 共指消解(coreference/entity resolution)在知识图谱记忆中是最基本的方法,整合同一实体的不同称谓。
作者回复: 因为用了KG Memory之后,历史对话的信息没有作为Prompt的一部分给到ChatGPT 这个时候,你需要一个既组合了history消息,又有KGMemory的组合Memory
2023-04-13归属地:瑞士 - Evanfrom langchain.memory import ConversationSummaryMemory. 引入这个的时候报错
作者回复: 具体报什么错呀?
2023-04-13归属地:上海2 - hyetry老师,有文本摘要对应的替换推荐模型吗?
作者回复: 去Huggingface上找 https://huggingface.co/models?pipeline_tag=summarization&sort=downloads 按照需求筛选标签
2023-04-13归属地:广东 - 君为老师你好,客服处理用户的问题很多都是一系列任务,有时还需要客服主动给用户发消息。比如用户要退货,需要提供手机号,订单号等信息,用户找不到订单号在哪需要一步步指导用户然后再做一些列操作。 请问老师识别用户意图,提取关键信息后,如何让ChatGPT进入设定的工作流,最终处理好用户的问题?
作者回复: 可以看看下一讲,里面就有了一个简单的你需要的这些需求的示例了。
2023-04-13归属地:北京 - Penguin Shi原文:Langchain 里面还提供了一个 KnowledgeGraphMemory,你能不能去试着用一下,看看它能在什么样的场景下帮你解决问题? 更新:Conversation Knowledge Graph Memory,https://python.langchain.com/docs/modules/memory/types/kg2023-08-12归属地:广东1