谷歌新研究对神经网络数据并行性提出质疑
极客时间编辑部
讲述:丁婵大小:2.15M时长:02:21
在训练神经网络时,并行计算和模型并行是很常用的方法,以最大限度地利用有限的算力。然而,谷歌的一项新研究表明,数据并行并不一定总能加快模型训练速度。
谷歌在实验中使用了三种不同的优化算法(“优化器”)在七个不同数据集上,运行六种不同类型的神经网络,来研究样本大小和训练时间之间的关系。总的来说,他们在约 450 个工作负载上训练了超过 100K 的单个模型,发现了所有工作负载中样本大小和训练时间之间看似普遍的关系。此外,他们还研究了这种关系如何随数据集、神经网络架构和优化器而变化,结果发现,工作负载之间的差异非常大。
如果可以预测哪些工作负载可以最大化地从数据并行训练中受益,那么就可以定制工作负载,以最大限度地利用可用硬件。但是,结果表明这不一定行的通,因为最大化利用有用的样本在某种程度上取决于工作负载的方方面面:神经网络架构、数据集和优化器。
虽然,某些数据集可以从比其他数据集更大的样本中受益,但这些差异并不总是因为数据集的大小引起的,有时对于较大的样本,较小的数据集也可能比较大的数据集受益更多。
其中,最让人鼓舞的发现是,即使是优化算法的微小变化也可以随着样本扩大显著改善训练。这让新优化器或测试优化器缩放属性的可能性变大,以找到可以最大限度地利用大规模数据并行的优化器。
虽然通过增加样本数量,利用额外的数据并行是一种加速工作负载的简单方法,但是,工作负载加速的优势由于硬件的限制,在逐渐减小。另一方面,一些优化算法可能可以在许多模型和数据集中扩展完美的缩放模式。未来,谷歌想要用相同的方法测试其他优化器,看看现在是否存在可以将完美模式拓展应用到所有问题中的优化器。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论