31|从Copilot升级到Agent:观察-规划-执行
陈旭

你好,我是陈旭。
在过去的几讲中,我们一同踏上了一段激动人心的旅程,推动着我们的低代码平台 Awade 向着智能化不断迈进。在第 29 讲,我们打通了从自然语言到 UI 变更的“最后一公里”,让 AI 的“想法”能够直接呈现在画布之上。紧接着在第 30 讲,我们又通过引入“意图模板”和“对话状态”,让我们的助手学会了多轮对话,从一个机械的指令员,进化成了一个懂得沟通的协作者。
我们的 AI 助手现在已经相当能干了。它能听懂你的指令,能在信息不足时主动追问,最终还能将一个完整的意图,比如“创建一个带有关闭按钮的模态框”,转化为画布上实实在在的 UI 组件。这已经是一个非常了不起的成就。
但是,一个更深层次的问题,一个阻碍它从一个优秀的 “Copilot”(助手)进化为真正 “Agent”(智能体)的根本性障碍,也随之浮现。那就是,我们的助手至今为止,依然是在“闭着眼睛”开车。它是一个“盲人摸象”的执行者。
让我用几个你可能很快就会遇到的失败场景,来揭示这个问题所在。
场景一,也是最直接的,它无法回答任何关于当前状态的问题。如果你问它:“我现在页面上有几个按钮?”它会瞬间语塞。因为它从来没有“看过”画布,它的世界里只有指令和实体,没有“状态”这个概念。
公开
同步至部落
取消
完成
0/2000
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结

1. 本文讨论了如何将AI助手从“Copilot”升级为“Agent”,通过建立“观察-规划-执行”的初步闭环,解决助手缺乏“观察”能力的问题。 2. 作者提出了设计Agent的“视觉系统”,定义了三个核心的“只读”观察工具,包括全局扫描、焦点详查和智能筛选,以提供不同粒度、不同维度、并且是结构化的信息,让Agent可以像人类一样观察页面。 3. 文中详细介绍了这三个观察工具的功能和实现方式,包括全局扫描、焦点详查和智能筛选的具体作用和伪代码实现。 4. 作者强调了观察工具必须是“只读”的原则,绝对不能以任何方式意外地修改到页面状态,以确保构建一个稳定可靠的Agent系统。 5. 通过建立“观察-规划-执行”的初步闭环,本文为AI助手的智能化发展提供了重要的思路和方法。 6. 文章介绍了如何通过建立“观察-规划-执行”的初步闭环,解决AI助手缺乏“观察”的能力的问题,以及设计和实现Agent的“视觉系统”所涉及的关键工具和原则。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《说透低代码》,新⼈⾸单¥59
《说透低代码》,新⼈⾸单¥59
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论