极客视点
极客时间编辑部
极客时间编辑部
113233 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:02
登录|注册

MAPO:用于程序合成的策略优化方法

讲述:杜力大小:953.95K时长:02:02
策略梯度方法正在获得越来越多学者的关注。近日,来自西北大学、谷歌大脑的研究人员提出了内存策略优化方法 MAPO,该框架可以用于从弱监督(如问答对)中学习语义解析和程序合成,这比全监督 (如问答对) 更容易收集,也更灵活。
据了解,Google Brain 的研究人员使用了内存增强策略优化(MAPO)方法来训练 NSM(神经符号机,一种利用强化学习集成神经网络和符号表征的框架)。这是一种新的策略优化公式,它包含了一个有期望轨迹的内存缓冲器,以减少确定性环境的策略梯度估计的方差。
他们提出了一种基于离散确定性环境的策略优化的新构想,它在策略梯度框架内,结合了一个有期望轨迹的内存缓冲器。将策略梯度看作对内存中轨迹的期望,以及对内存外轨迹的期望的加权和。由于梯度估计是没有偏差的,在内存缓冲区的轨迹概率无法忽略的情况下,可以得到较低的方差。
为了使 MAPO 算法更有效,谷歌大脑人员提出了三种技术:
在表演者 - 学习者体系结构中,从内存缓冲区内外分别进行分布式采样;
对内存缓冲中的高回报轨迹边际进行约束,以在初始训练阶段引入一定偏差来加速训练;
系统地探索搜索空间,以有效发现高回报轨迹。
此外,他们评估了 MAPO 对自然语言弱监督程序合成的有效性。程序合成可以在策略优化的条件下学习泛化,同时对实际应用产生影响。
在具有挑战性的 WikiTableQuestions 基准测试中,MAPO 在测试集上的准确率达到 46.2%,远远超过了之前的 43.7% 的水平。有趣的是,在 WikiSQL 基准测试中,MAPO 在没有程序监督的情况下,达到了 74.9% 的准确度,超过了几个表现较好的全监督基准线。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
4
沉浸
阅读
分享
手机端
快捷键
回顶部