极客视点
极客时间编辑部
极客时间编辑部
113233 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:09
登录|注册

英特尔发布神经网络压缩库Distiller

讲述:杜力大小:1000.85K时长:02:09
近日,英特尔开源了一个用于神经网络压缩的开源 Python 软件包 Distiller,它可以减少深度神经网络的内存占用、加快推断速度以及节省能耗。它为 PyTorch 环境提供了原型和分析压缩算法,例如产生稀疏性张量的方法和低精度运算等。
英特尔认为,深度网络的压缩可以促进更多的研究成果投入应用,并实现更优秀的功能。
据了解,英特尔是主要根据以下特征和工具构建了 Distiller:
集成了剪枝、正则化和量化算法的框架;
分析和评估压缩性能的一组工具;
当前最优压缩算法的示例实现。
其中,剪枝和正则化是两种可以令深度网络参数张量产生稀疏性的方法,稀疏张量可以更紧凑地储存在内存中,并且可以减少执行 DNN 运算所需要的计算量和能耗。而量化是另一种减少 DNN 中数据精度的方法,它同样会减少内存、能耗和计算力需求。
Distiller 为量化、剪枝(结构化剪枝和细粒度剪枝)和诱导稀疏性的正则化等方法,提供了越来越多的最优算法,并可以训练更快、更紧凑和更节能的模型。
为了帮助研究者更专注于它们的任务,英特尔尝试提供一些压缩算法,并同时提供了高级和底层函数以方便使用。例如:
剪枝方法在深度网络经过训练后,动态地从卷积网络中移除卷积核与通道。Distiller 将会在目标层配置中执行这些变化,并且同时对网络的参数张量做剪枝。
Distiller 可以自动地对模型执行量化操作,也就是使用量化后的层级副本替代具体的层级类型。这将允许开发者专注于开发量化方法,并且在多种模型中扩展和测试它。
总体上,Distiller 是一个用于压缩算法研究的库,它致力于帮助科学家和工程师训练并部署 DL 的解决方案、帮助发布研究论文,以及促进算法更新与创新。目前,英特尔也在添加更多的算法、特征和应用领域。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
4
沉浸
阅读
分享
手机端
快捷键
回顶部