作者回复: 理论上可行,但工程上强烈不推荐。 为什么不推荐“永远在一个会话里”?第一个就是你提到的auto-summarizing,这是一个有损压缩。随着对话变长,早期的具体代码细节、特殊的约束条件会被逐渐“模糊化”甚至丢失,导致 AI 在后期变得“健忘”或不再精准。 其次是上下文污染。上一个任务的错误尝试、中间过程和临时变量,会成为下一个任务的“噪音”,干扰 AI 对新任务的判断。 此外,超长上下文的推理成本和延迟通常也会更高。 建议遵循 “一个任务,一个会话” 的原则。无论是使用Claude Code,还是其他coding agent或是web版大模型应用也是这样。
作者回复: 👍
作者回复: 谁比过,出来说说,我也想听听。火山最新的coding模型号称很厉害。但是太新,还没用过。