DeepMind开源强化学习库TRFL
极客时间编辑部
讲述:杜力大小:1004.15K时长:02:09
近日,DeepMind 开源了一个内部强化学习库 TRFL,用于在 TensorFlow 中编写强化学习智能体。这个库包含了 DeepMind 开发的大量成功的 agent 的关键算法组件,对于强化学习智能体的再现研究很有用。
据了解,一般的强化学习代理程式包含许多互动元件。首先,起码需要包括一个环境以及某种能表示值或者策略的深度神经网络,然后很多时候还会包含学习到的环境的模型、伪反馈函数甚至一个回放系统等。
由于这些元件的互动很巧妙,因此,在大型运算图谱(computation graphs)中,不容易发现 Bug。近期,OpenAI 的一篇博客也着重研究了这个问题,他们分析了某些最热门的强化学习智能体,发现 10 个中的 6 个,都是由社区成员发现了微小的 Bug 并得到了作者的确认。
解决上述问题及协助研究的方法之一,就是将完整的智能体开源出来。另一个方法则是提供可靠的、经过充分测试的通用基础组件。
据了解,TRFL 库包含了许多功能,可以实现经典强化学习算法以及更现代的算法。其中的损失函数以及许多其他操作,都是完全在 TensorFlow 中实现的。
对于基于值的强化学习,DeepMind 的研究人员们也在 TRFL 库中提供了各种 TensorFlow 操作,便于在离散的行动空间中学习。TRFL 库中还包括了学习值分布函数的操作,这些操作支持批量计算,并且返回的损失值可以送入 TensorFlow 优化器进行最小化。
此外,TRFL 还提供了一个 Unreal 引擎中使用的辅助伪反馈函数的实现,DeepMind 的研究人员发现,它能在许多不同的任务中提高数据效率。
显然,宣告开源并不是这个项目的终点。由于这个库在 DeepMind 内部有着广泛的应用,他们也会持续不断地对它进行维护,并逐步增加新的功能。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论