欢迎回来!上一节课,我们给 XiaoPaw 建立了搜索驱动的记忆系统——用 pgvector 把每一轮对话向量化入库,让 Agent 能精准召回几个月前的某次分析结论。至此,三层记忆的最后一块拼图落地了。
但学完 19、20、21 课,你心里可能有一个问题:这三层能力,怎么在一个真实产品里协同工作? 光懂原理不够,还得看得见、用得上。这就是今天这节课要做的事:我们把 L19 上下文层、L20 文件层、L21 搜索层全部集成进来,把 XiaoPaw 从一个工具升级成一个真正懂你的长记忆助手。
这是模块三的收官实战。把它跑通之后,你就拥有了一个可以真正交付的、带完整记忆系统的 AI 助手工程模板。
还记得第 18 课吗?我们当时拿 XiaoPaw 做解剖,找出了它最致命的四个记忆缺陷。

从图里可以看到,左边那只茫然的小爪子有四个硬伤:
跨 session 失忆:你昨天跟它说的所有话,今天重启之后全忘。每次对话都是从陌生人开始。
长对话崩溃:聊太久了,token 超限,直接报错。工具越强大,这个问题越刺眼。
偏好学习为零:你说了一百遍"别用表格",它下次还用。没有持久化写通道,说再多都白说。
历史回忆空白:问"我上次那个投资分析结论是什么",一问三不知。当时就算跟它聊过,它也完全想不起来。
