极客视点
极客时间编辑部
极客时间编辑部
113240 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:09
登录|注册

IBM提出8位深度网络训练法

讲述:杜力大小:1.96M时长:02:09
最近,IBM 在 NeurIPS 上展示了一些新的人工智能训练方法,性能超过此前的最优表现。
这家位于纽约州阿蒙克的公司取得的第一个突破是加速数字技术,能够以 8 位实现全精度。第二个突破是用于模拟芯片的 8 位精密技术,这是 IBM 公司同类产品中实现的精度最高的技术,精确度提高了约一倍。
据介绍,下一代 AI 应用程序需要更快的响应时间、更大的 AI 工作负载以及来自众多流的多模式数据。为了释放人工智能的全部潜力,IBM 正在重新以 AI 的思维设计硬件,从加速器到用于 AI 工作负载的专用硬件,比如新的芯片,以及最终用于 AI 的量子计算。
IBM 阿尔马登研究所副总裁兼实验室总监杰夫瑞·韦斯勒(Jeffrey Wesler)表示,利用新的硬件解决方案扩展 AI 是 IBM 研究所工作的一部分,从狭义上的人工智能(通常用于解决特定的,定义明确的任务)转向通用人工智能,跨越各个学科,以帮助人类解决最紧迫的问题。
在一篇名为《用 8 位浮点数训练深度神经网络》(Training Deep Neural Networks with 8-bit Floating Point Numbers)的论文中,IBM 研究人员描述了他们如何在将加法算术精度从 32 位降到 16 位的同时,在 ResNet50、AlexNet,以及一系列图像、语音和文本数据集模型中保持 8 位精度。他们声称,该技术可以将 16 位系统的深度神经网络的训练时间加速两到四倍。
第二篇论文( 《带有投射式相变存储器的 8 位精度存储器内乘法》)提供了一种补偿模拟 AI 芯片低固有精度的方法,使它们能够在标量乘法运算中达到 8 位精度,获得大致两倍的精度,同时,比同类数字 AI 系统耗能少 33 倍。
韦斯勒表示,研究团队取得的高精度表明,内存计算可以在低功耗环境中实现高性能的深度学习,例如物联网和边缘应用,与数字加速器一样,IBM 的模拟芯片可以扩展到视觉、语音和文本数据集的 AI 训练和推理,以及新兴的广泛的 AI 应用中。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
5
沉浸
阅读
分享
手机端
快捷键
回顶部