• hao-kuai
    置顶
    2026-02-04 来自江苏
    光是这篇文章的分析就已经值回票价了,对于编码用户来说优化工程结构才是写代码的人能操作的范围。思考题1和2无法回答,主要是使用claude code 完成编码工作;思考题3,选择方案 C,现象描述就是主上下文撑满导致注意力分散了,Sub-Agent隔离上下文刚好就是解决这个问题的;有问题是老师的视角是更好的提升claude code 完成开发任务的表现还是借助claude code 打造自己的agent工作流啊?

    作者回复: 谢谢肯定! 回答同学的问题:架构层面 并不矛盾,分布走。 第一步,先通过架构思维来提升Claude Code大型项目的开发能力,让它和人类都不乱。 第二步,再通过Headless和SDK等方式调用Claude Code形成AI原生的Agent工作流。

    
    1
  • Geek_646231
    2026-02-04 来自北京
    有一个小问题:怎么保证大模型能确保执行的正确性,如数据清洗,我要保证清洗的数据没有遗漏。

    作者回复: 这不是小问题这是大问题。 要把护栏和评估层做到完备。对大模型给回结果的检查和审核数据集是重中之重。没有这个怎能放手?怎能放心?

    
    
  • kimoti
    2026-02-04 来自日本
    OpenClaw只是个玩具吧。 现在有什么客户必须用 AI来解决的痛点吗?

    作者回复: 有文章说有人用clawedbot做量化交易赚了几十万美元了,虽然需验证消息来源,但其实有可能。 具体到企业落地场景,那就要深入现场来谈了。能用AI解决的问题很多,无法靠AI来解决的场景更多。

    
    
  • jssfy
    2026-02-04 来自北京
    handoff agent的定义一般放哪,skill.md还是subagent定义,还是其他地方?

    作者回复: 它是一个工程设计流程,它的具体实现要通过提示词的规划来完成。也就是放在提升词中,或者整体性的放在CLAUD.md中。

    
    
  • jssfy
    2026-02-04 来自北京
    sub-agent为何会有额外的token开销,不都是用提示词问吗,在主agent提问上下文的开销不一样?

    作者回复: 我觉得这个问题很值得讨论。从内存管理的角度,会有额外开销,每一次初始化sub-agent,需要:1.重新载入CLAUD.md 2.传入所需要的提示词也就是上下文。3. 传回SubAgent的任务完成结果 —— 而这个过程很可能是多次循环(并行)调用Sub-Agents。 如果这些都是一个主会话来弄,只需要占用同一份单独的上下文空间即可,不存在额外上下文的传递。因此开销较少。 但是如同你所说,内存不等同于Token用量。每次主对话不也是要传入所需要的上下文吗? 我猜测,Token的计数是否和Prompt Caching 机制,上下文压缩,RAG,等方面导致主对话传入的提示词也比每次开多一个SubAgent来的少。是不。而且,不开启SubAgents,对话轮次也少。 总而言之,在主会话和子代理的交互过程中,还是引入了额外的Token。然而就每个提问来说,每次提问都需要给够足够的上下文。—— 因为大模型没有记忆。 大家可以说说自己的观点吗??

    
    
  • 林龍
    2026-02-06 来自广东
    我把这五个发展阶段这个大类我拆分成两个大标题 ### 架构的演进 1. 单agent 2. skill 3. sub-agent ### 多agent的编排 1. Handoffs 2. Router
    
    