• 悟空聊架构
    2025-07-08 来自北京
    🤔 思考题第 1 题 问题:目前,LangGraph Agent 的 V2 版本实现了意图识别能力,但是使用简单的模板化回复,直接拼接字符串生成响应,响应内容相对固定和简单。你可否改造一下,使用 LLM 生成智能回复,让响应内容更加个性化和友好。 🌈解答 :我只看了下老师写的代码,核心思路就是从响应中拿到传入的汇率参数,然后拼接到 prompt 中,然后传给大模型。 🤔 思考题第 2 题 问题:LangGraph Agent 的 V2 版本和 A2A Sample 中的 Agent.py 从工作流程控制方面有哪些差异?在你的工作场景中,你比较倾向于选择哪种实现方式,为什么? 🌈 解答: V2 版本更灵活,手动构建 StateGraph ,可以自由添加节点和边。 而 Agent.py 用的标准的工作流程控制, ReAct 模式 Agent,用到的 create_react_agent 方法不直接提供参数来传入自定义的条件边和循环边。 工作场景: - 手动构建 StateGraph 的场景: - 复杂的多步骤 Agent - 多 Agent 协作系统 - 需要人类介入的流程 - 自定义决策逻辑 - 标准的 ReAct 模式 Agent 实现的 LangGraph Agent - 简单且标准的工具使用 Agent - 快速原型开发 - 学习 LangGraph 的起点 🌟文中有个点其实没有细讲: 当在 langgraph_zh/agent.py 文件中调用 `create_react_agent` 并传入模型、工具、checkpointer 和 prompt 时,它会在内部自动创建一个 LangGraph 图,这个图通常包含以下几个隐式节点和边。 ### ☁️ Demo 运行方式 demo 代码在这里:https://github.com/huangjia2019/a2a-in-action #### 运行直接调用demo cd agents/langgraph_zh python 02_LangGraph_Currency-v1-直接调用.py #### 运行意图识别 demo cd agents/langgraph_zh python 02_LangGraph_Currency-v2-意图识别.py #### 运行智能回复 demo cd agents/langgraph_zh python 02_LangGraph_Currency-v3-智能回复.py #### LangGraph Agent 和 A2A 的集成 demo 启动一个终端 cd agents/langgraph_zh uv run . 启动另外一个终端 cd demo/ui uv run main.py
    展开
    
    1