Claude Code 工程化实战
黄佳
新加坡科研局资深研发工程师
2917 人已学习
新⼈⾸单¥59
Claude Code 工程化实战
15
15
1.0x
00:00/00:00
登录|注册

04|量体裁衣:从Sub-Agents到Multi-Agent的工程指南

你好,我是黄佳。
了解子代理的来龙去脉之后,我们这一讲接着深入聊相关的工程实践和设计模式。
正式开讲前,我想先抛出一个很多同学都比较困扰的地方:为什么我们有时很快就能“看懂”某些新出来的 AI 产品,而对另一些却始终感觉云里雾里?
上周直播时,就有同学提到一个当下讨论度很高的开源项目 OpenClaw(Clawdbot)。在讨论群里,有人一眼就能说清它的核心设计取舍,而初学者却只能停留在“它好像用了 Agent / Tool / Workflow”的层面。
这背后的差别,往往不在于你有没有把源码读完, 而在于你脑子里有没有一套稳定的“架构式思维框架”
当你具备这种整体架构模式的认知时,面对一个陌生但热门的 AI 产品,你不再是从零开始理解,而是会下意识地问几个问题:
它解决的核心工程问题是什么?
它选择的是单 Agent,还是某种多 Agent 结构?
它是在用上下文换智能,还是用架构换可控性?
今天这一讲,虽然不在课程原有大纲之内,但我非常建议你在后续子代理工程实操之前,先把这一套“架构视角”建立起来。还是那句老话:站得高,看得远。
这节课的目标,并不是教你某一个具体框架、某一个流行用法, 而是帮你建立一种可以立刻用于拆解当下热门产品,也能长期指导工程设计的通用方法论。学完今天的内容,你不仅能更好地理解 Sub-Agent、Skills 这些概念, 也会更清楚:什么时候该用,什么时候不该用,为什么。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
  • 解释
  • 总结
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《Claude Code 工程化实战》
新⼈⾸单¥59
立即购买
登录 后留言

全部留言(3)

  • 最新
  • 精选
  • hao-kuai
    置顶
    光是这篇文章的分析就已经值回票价了,对于编码用户来说优化工程结构才是写代码的人能操作的范围。思考题1和2无法回答,主要是使用claude code 完成编码工作;思考题3,选择方案 C,现象描述就是主上下文撑满导致注意力分散了,Sub-Agent隔离上下文刚好就是解决这个问题的;有问题是老师的视角是更好的提升claude code 完成开发任务的表现还是借助claude code 打造自己的agent工作流啊?

    作者回复: 谢谢肯定! 回答同学的问题:架构层面 并不矛盾,分布走。 第一步,先通过架构思维来提升Claude Code大型项目的开发能力,让它和人类都不乱。 第二步,再通过Headless和SDK等方式调用Claude Code形成AI原生的Agent工作流。

    2026-02-04归属地:江苏
  • jssfy
    handoff agent的定义一般放哪,skill.md还是subagent定义,还是其他地方?

    作者回复: 它是一个工程设计流程,它的具体实现要通过提示词的规划来完成。也就是放在提升词中,或者整体性的放在CLAUD.md中。

    2026-02-04归属地:北京
  • jssfy
    sub-agent为何会有额外的token开销,不都是用提示词问吗,在主agent提问上下文的开销不一样?

    作者回复: 我觉得这个问题很值得讨论。从内存管理的角度,会有额外开销,每一次初始化sub-agent,需要:1.重新载入CLAUD.md 2.传入所需要的提示词也就是上下文。3. 传回SubAgent的任务完成结果 —— 而这个过程很可能是多次循环(并行)调用Sub-Agents。 如果这些都是一个主会话来弄,只需要占用同一份单独的上下文空间即可,不存在额外上下文的传递。因此开销较少。 但是如同你所说,内存不等同于Token用量。每次主对话不也是要传入所需要的上下文吗? 我猜测,Token的计数是否和Prompt Caching 机制,上下文压缩,RAG,等方面导致主对话传入的提示词也比每次开多一个SubAgent来的少。是不。而且,不开启SubAgents,对话轮次也少。 总而言之,在主会话和子代理的交互过程中,还是引入了额外的Token。然而就每个提问来说,每次提问都需要给够足够的上下文。—— 因为大模型没有记忆。 大家可以说说自己的观点吗??

    2026-02-04归属地:北京
收起评论
显示
设置
留言
3
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部
文章页面操作
MAC
windows
作用
esc
esc
退出沉浸式阅读
shift + f
f11
进入/退出沉浸式
command + ⬆️
home
滚动到页面顶部
command + ⬇️
end
滚动到页面底部
⬅️ (仅针对订阅)
⬅️ (仅针对订阅)
上一篇
➡️ (仅针对订阅)
➡️ (仅针对订阅)
下一篇
command + j
page up
向下滚动一屏
command + k
page down
向上滚动一屏
p
p
音频播放/暂停
j
j
向下滚动一点
k
k
向上滚动一点
空格
空格
向下滚动一屏
播放器操作
MAC
windows
作用
esc
esc
退出全屏
⬅️
⬅️
快退
➡️
➡️
快进
空格
空格
视频播放/暂停(视频全屏时生效)