MCP & A2A 前沿实战
黄佳
新加坡科研局资深研发工程师
2624 人已学习
新⼈⾸单¥59
MCP & A2A 前沿实战
15
15
1.0x
00:00/00:00
登录|注册

11|人在环路:通过Sampling机制实现人机互动

你好,我是黄佳。
在 Model Context Protocol(MCP)框架中,采样(Sampling)是一个强大且独特的功能,它允许服务器向客户端请求语言模型(LLM)的生成结果,从而实现复杂的代理行为,同时保持安全性和隐私性。这一功能使得 MCP 服务器可以充当智能中介,协调用户、客户端和语言模型之间的交互。
采样这个原语,乍听起来似乎又有点儿高大上,觉得难以理解。我开始也不懂 MCP 在这里想做什么,但是其实它的机制和作用仍然是相当简单,我们学完了这一课你就会非常清楚了。

MCP 采样机制的工作流程

MCP 采样的工作流程精心设计了一个“人在环路中”(human-in-the-loop)的模式,确保用户对 LLM 的交互保持控制权。
这个模式包括以下流程。
服务器发出请求:服务器发送 sampling/createMessage 请求到客户端。
客户端审核:客户端接收请求,并允许用户审核和修改参数。
LLM 生成:客户端调用语言模型生成结果,语言模型处理已批准的请求并生成内容。
内容审核:客户端向用户展示生成的内容,供用户审核和可能的修改。
结果返回:已批准的内容被发送回 MCP 服务器。
这种设计确保了用户始终可以维持对 AI 系统的控制,增强了透明度和可信度。实际上就是为交互过程中人类用户或者客户端和服务器之间的互动提供了模板和指南。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
  • 解释
  • 总结

1. MCP框架中的采样(Sampling)功能允许服务器向客户端请求语言模型(LLM)的生成结果,实现复杂的代理行为,同时保持安全性和隐私性。 2. 采样请求使用标准化的消息格式,包含消息数组、模型偏好、系统提示、上下文包含和采样参数等关键元素。 3. 通过MCP采样机制实现文件系统助手,可以增强用户与文件系统交互的能力,确保用户对所有操作保持完全控制,防止潜在的数据安全风险。 4. 采样功能设计中包含了人机协作机制,确保用户可以了解AI将如何工作、修改生成参数、审核和调整AI生成的内容。 5. 采样机制通过“人在环路”设计,实现了用户对AI系统的控制,增强了透明度和可信度。 6. 采样功能设计中包含了人机协作机制,确保用户可以了解AI将如何工作、修改生成参数、审核和调整AI生成的内容。 7. 除了上面示例中介绍的温度(temperature)和最大令牌数(maxTokens)参数外,还有多种可能的采样方式可以控制生成内容的特性和行为。 8. MCP采样功能为AI系统提供了强大的扩展能力,让AI能够与外部世界交互,同时保持安全性和用户控制。 9. 采样功能设计中包含了人机协作机制,确保用户可以了解AI将如何工作、修改生成参数、审核和调整AI生成的内容。 10. 采样功能设计中包含了人机协作机制,确保用户可以了解AI将如何工作、修改生成参数、审核和调整AI生成的内容。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《MCP & A2A 前沿实战》
新⼈⾸单¥59
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部
文章页面操作
MAC
windows
作用
esc
esc
退出沉浸式阅读
shift + f
f11
进入/退出沉浸式
command + ⬆️
home
滚动到页面顶部
command + ⬇️
end
滚动到页面底部
⬅️ (仅针对订阅)
⬅️ (仅针对订阅)
上一篇
➡️ (仅针对订阅)
➡️ (仅针对订阅)
下一篇
command + j
page up
向下滚动一屏
command + k
page down
向上滚动一屏
p
p
音频播放/暂停
j
j
向下滚动一点
k
k
向上滚动一点
空格
空格
向下滚动一屏
播放器操作
MAC
windows
作用
esc
esc
退出全屏
⬅️
⬅️
快退
➡️
➡️
快进
空格
空格
视频播放/暂停(视频全屏时生效)