极客视点
极客时间编辑部
极客时间编辑部
113233 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:18
登录|注册

IBM推出在相变内存中训练神经网络的硬件

讲述:杜力大小:1.05M时长:02:18
一直以来,研究人员都在试图在传统 CPU 上运行神经网络,但是将数据传输到内存是个缓慢的过程。因此,神经网络往往很耗费计算资源和能量。几年前,IBM 宣布了一种新的处理器设计,可以极其高效地执行神经网络。现在 IBM 又推出了一种专门用于训练神经网络的硬件设计。
IBM 能做到这点,一方面归因于直接在一种专门的内存中执行训练。相变内存基于能够形成两种不同结构或相态的材料,这取决于材料从液态冷却的速度有多快。由于这些相态的电导率不同,因此,可以利用这个特性来存储位,还可以控制温度。
此外,它还可以用来执行计算。以这种方式执行计算的优点有两方面:一方面是由于操作在内存中进行,所以不需要来回访问内存;另一方面可以并行执行许多操作。这些差异与神经元群体的行为有着天然的相似处,这使得相变内存可能很适合神经网络。
事实上,神经元活动不是一种二元的、全有或全无的状态,它会采用开和关之间的一系列中间行为。因此,相变内存能够采用 1 和 0 之间的状态,这让它得以直接模仿神经元的行为。
在测试操作的过程中,存在着两个问题。一个问题就是,硬件在 1 到 0 之间没有能够使神经网络高效保持在同一范围的状态。第二个问题是,这个系统的各部分在如何响应方面因不同位而存在变化。于是,IBM 团队想出了一个二级(two-level)系统用于训练。
研究员们使用手写数字的标准训练和测试图片集(名为 MNIST)对它进行了测试。测试结果表明,这个系统与 TensorFlow 的标准神经网络软件库之间的精确度相差 1% 以内。
但是在效率上,研究人员估计,如果他们的硬件采用之前的技术来制造(实际上是用相当古老的 90 纳米工艺制造),那么性能将会比最先进的 GPU 至少高出 100 倍,节能效果胜出 100 倍。
当然,这些仅仅是估计值。虽然该团队确实用硬件来实现基于相变的层,但是基于电容器的层,有一些细节是用模拟器来实现的。毫无疑问,直到真正使用硬件的时候,一些细节和可能的问题才会显现出来。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
5
沉浸
阅读
分享
手机端
快捷键
回顶部