极客视点
极客时间编辑部
极客时间编辑部
113240 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:09
登录|注册

DeepMind开源强化学习库TRFL

讲述:杜力大小:1004.15K时长:02:09
近日,DeepMind 开源了一个内部强化学习库 TRFL,用于在 TensorFlow 中编写强化学习智能体。这个库包含了 DeepMind 开发的大量成功的 agent 的关键算法组件,对于强化学习智能体的再现研究很有用。
据了解,一般的强化学习代理程式包含许多互动元件。首先,起码需要包括一个环境以及某种能表示值或者策略的深度神经网络,然后很多时候还会包含学习到的环境的模型、伪反馈函数甚至一个回放系统等。
由于这些元件的互动很巧妙,因此,在大型运算图谱(computation graphs)中,不容易发现 Bug。近期,OpenAI 的一篇博客也着重研究了这个问题,他们分析了某些最热门的强化学习智能体,发现 10 个中的 6 个,都是由社区成员发现了微小的 Bug 并得到了作者的确认。
解决上述问题及协助研究的方法之一,就是将完整的智能体开源出来。另一个方法则是提供可靠的、经过充分测试的通用基础组件。
据了解,TRFL 库包含了许多功能,可以实现经典强化学习算法以及更现代的算法。其中的损失函数以及许多其他操作,都是完全在 TensorFlow 中实现的。
对于基于值的强化学习,DeepMind 的研究人员们也在 TRFL 库中提供了各种 TensorFlow 操作,便于在离散的行动空间中学习。TRFL 库中还包括了学习值分布函数的操作,这些操作支持批量计算,并且返回的损失值可以送入 TensorFlow 优化器进行最小化。
此外,TRFL 还提供了一个 Unreal 引擎中使用的辅助伪反馈函数的实现,DeepMind 的研究人员发现,它能在许多不同的任务中提高数据效率。
显然,宣告开源并不是这个项目的终点。由于这个库在 DeepMind 内部有着广泛的应用,他们也会持续不断地对它进行维护,并逐步增加新的功能。
如果你对此感兴趣,可以点击文末链接,查看其GitHub 主页
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
22
沉浸
阅读
分享
手机端
快捷键
回顶部