IBM取得内存计算新突破,能耗降低80倍
极客时间编辑部
讲述:杜力大小:1.14M时长:02:29
近日,IBM 开发出了一种内存计算的新方法,被称为“混合精度内存计算”,可以为微软和谷歌寻求高性能和机器学习应用的硬件加速器提供答案。
在这种体系结构中,软件需要在单独的 CPU 和 RAM 单元之间进行数据传输。而这种设计为数据分析和机器学习应用制造了一个瓶颈,这些应用需要在处理单元和内存单元之间进行更大的数据传输,传输数据本身就是一个耗能的过程。
为了应对这一挑战,IBM 提出的方法是模拟相变内存芯片,简称 PCM,该芯片目前还处于原型阶段,由 500 万个纳米级 PCM 器件组成 500×2000 交叉阵列。
据了解,PCM 的一个关键优势是可以处理大多数密集型数据,而不需要将数据传输到 CPU 或 GPU 上,这样就可以以更低的能量开销实现更快速的处理。PCM 单元将作为 CPU 加速器,就像微软用于加速 Bing 和加强机器学习的 FPGA 芯片一样。
在某些情况下,PCM 芯片能够以模拟的方式进行操作,执行计算任务,并提供与 4 位 FPGA 存储器芯片相当的准确度,虽然准确度提升了,但是能耗降低了 80 倍。
根据 IBM 苏黎世实验室的电气工程师曼努埃尔·勒盖洛(Manuel Le Gallo )的说法,这种设计有助于云中的认知计算,并且可以开放对高性能计算机的访问。
为了应对模拟计算中的不精确性,IBM 将这种方法与标准处理器结合起来。将大量的计算任务转移到 PCM 中,与此同时确保得到最终的结果是精确的。勒盖洛表示:“凭借我们现在的精确度,可以将能耗降低到是使用高精度 GPU 和 CPU 的 1/6。”
据介绍,这种技术更适合用于如数字图像识别等应用,还可以被用于医疗应用上面。PCM 非常节能,开发人员可以以模拟的方式,用低精度完成大量计算,然后使用传统处理器来提高精度。
目前,IBM 的原型内存芯片只有 1 兆字节大小,而且还处于初期阶段。为了适用于现代数据中心的规模化应用,它需要达到千兆字节的内存量级,分布在数万亿个 PCM 中。
尽管如此,IBM 认为,可以通过构建更大规模的 PCM 设备或者使其中 PCM 并行运行,来实现这一目标。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论