极客视点
极客时间编辑部
极客时间编辑部
113233 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/01:53
登录|注册

DeepMind提出关系RNN:构建关系推理模块

讲述:杜力大小:882.28K时长:01:53
近日,DeepMind 和伦敦大学学院共同提出了关系推理模块 RMC(Relational Memory Core),能够在序列信息中执行关系推理。
据了解,基于记忆的神经网络能够利用记忆信息的能力来构建时序数据。然而,目前还不清楚它们是否有能力利用它们记忆信息的能力,进行复杂的关系推理。
对此,DeepMind 和伦敦大学学院的研究人员提出了一个想法,就是标准的记忆架构在涉及关系推理的任务时会很困难,这个想法得到了证实。在这之后,研究者通过使用一个新的记忆模块 RMC(Relational Memory Core)来改进这种缺陷。
他们在一系列的任务上对 RMC 进行测试,这些任务可以从跨序列信息的更强大的关系推理中获益,并且在 RL 领域(例如 Mini PacMan)、程序评估和语言建模中获得巨大的收益。另外,在 WikiText-103、Project Gutenberg 和 GigaWord 数据集上都达到了最佳的性能。
一直以来,人类都是使用复杂的记忆系统来访问和推理重要的信息。在神经网络研究中,许多成功的序列数据建模方法也使用了记忆系统(memory systems),例如 LSTM 和记忆增强的神经网络(memory-augmented neural networks)。通过增强记忆容量、随时间的有限计算成本以及处理梯度消失的能力,这些网络学会了跨时间将事件关联起来,以便熟练地存储和检索这些信息。
在这里,研究人员提出了建议,在考虑存储和检索的同时要考虑记忆交互,这是很有成效的。虽然,目前的模型可以学习划分和关联分布式的、矢量化的记忆,但是它们并不倾向于这样做。
通过一系列测试,结果显示,记忆交互的显式建模可以提高强化学习任务,以及程序评估、比较推理和语言建模的性能,这表明在递归神经网络中,加入关系推理能力是很有价值的。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
9
沉浸
阅读
分享
手机端
快捷键
回顶部