
作者回复: 谢谢肯定! 回答同学的问题:架构层面 并不矛盾,分布走。 第一步,先通过架构思维来提升Claude Code大型项目的开发能力,让它和人类都不乱。 第二步,再通过Headless和SDK等方式调用Claude Code形成AI原生的Agent工作流。

作者回复: 这不是小问题这是大问题。 要把护栏和评估层做到完备。对大模型给回结果的检查和审核数据集是重中之重。没有这个怎能放手?怎能放心?
作者回复: 有文章说有人用clawedbot做量化交易赚了几十万美元了,虽然需验证消息来源,但其实有可能。 具体到企业落地场景,那就要深入现场来谈了。能用AI解决的问题很多,无法靠AI来解决的场景更多。
作者回复: 它是一个工程设计流程,它的具体实现要通过提示词的规划来完成。也就是放在提升词中,或者整体性的放在CLAUD.md中。
作者回复: 我觉得这个问题很值得讨论。从内存管理的角度,会有额外开销,每一次初始化sub-agent,需要:1.重新载入CLAUD.md 2.传入所需要的提示词也就是上下文。3. 传回SubAgent的任务完成结果 —— 而这个过程很可能是多次循环(并行)调用Sub-Agents。 如果这些都是一个主会话来弄,只需要占用同一份单独的上下文空间即可,不存在额外上下文的传递。因此开销较少。 但是如同你所说,内存不等同于Token用量。每次主对话不也是要传入所需要的上下文吗? 我猜测,Token的计数是否和Prompt Caching 机制,上下文压缩,RAG,等方面导致主对话传入的提示词也比每次开多一个SubAgent来的少。是不。而且,不开启SubAgents,对话轮次也少。 总而言之,在主会话和子代理的交互过程中,还是引入了额外的Token。然而就每个提问来说,每次提问都需要给够足够的上下文。—— 因为大模型没有记忆。 大家可以说说自己的观点吗??