极客视点
极客时间编辑部
极客时间编辑部
113240 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:11
登录|注册

Raven:全球首个分布式深度学习训练协议

讲述:丁婵大小:1.00M时长:02:11
对于深度学习研究者来说,计算能力是非常关键的,但是 CPU 和 GPU 的资源往往是有限的。而 Raven 协议正是解决这一问题的良方。该协议可以利用空闲的计算资源来训练深度神经网络,而这些资源都来自个人用户设备的分享。
经过几十年的发展,传统的神经网络相关算法已经进化为深度神经网络(DNN),并且在各种应用领域都取得了巨大成功,尤其是模式识别领域。
这种基于训练的方法的理论,有一个局限是,一个 DNN 架构怎样在一个节点上训练、在多个不同的服务器上应用,或者分割成数个部分并分发到数个服务器上训练。显然,这种训练方式极其消耗算力,所以只能在强大的 GPU 和服务器上进行操作。
Raven 解决这一问题的方式,就是装配动态节点分配机制,对网络中的设备进行分工。这样,Raven 就可以消除主节点的所有依赖,并显著地减少任务所需的计算能力。
据了解,Raven 协议相较于其他相似规则的突出之处在于,它可以处理异步更新及数据碎片并行所产生的延迟。这种延迟问题用其他方案无法解决,而且延迟在模型训练的过程中是一个主要耗时因素,可能会消耗几周甚至几个月。
另外,如果想要让数据实现并行化,用户必须拥有可以处理庞大计算资源的平台。这一因素使得规模较小的用户群无法访问该平台。而 Raven 可以成功地将模型训练过程中数量庞大的小型异步运算,搭建为一个动态图。
据悉,Raven 协议允许个人用户贡献、分享空闲设备的计算资源,使得研究者对性能强大的 CPU 或 GPU 硬件的需求降到最低。分享空闲计算资源来进行训练的概念,会大大降低成本。并且作为补偿和回报,计算资源的分享者们会得到 Raven 币(RAV)。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
18
沉浸
阅读
分享
手机端
快捷键
回顶部