AWS开源Neo-AI,可优化AI模型提升部署速度
极客时间编辑部
讲述:杜力大小:3.00M时长:02:11
近日,AWS 宣布推出 Neo-AI 项目,这是 Apache 软件许可下的一个新的开源项目,采用了 AWS 为其 SageMaker Neo 机器学习服务开发和使用的一些技术,并将它们开放到开源生态系统当中。
此前,SageMaker Neo 在 AWS re:Invent 上被首次推出,其目的是帮助开发人员针对目标硬件平台优化经过培训的机器学习模型,在 AWS 环境中,SageMaker Neo 主要在边缘运行。
众所周知,对于边缘设备而言,其机器学习模型优化往往受到计算能力和存储的限制,因为距离云计算中心实在太远,而只能采取开发人员手动调整的方式。而 Neo-AI 就是为了解决这个问题而来。
更基础点看,机器学习具有改变应用程序开发的巨大潜力,是多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科,但其对专业知识的要求,只有少数公司能够承担得起。AWS 算得上是其中之一。
官方介绍,推出这个项目有 3 个主要好处:
转换模型的速度最高可达 2 倍,而且不会降低精度。
现在复杂的模型几乎可以在任何资源有限的设备上运行,解锁自动驾驶汽车、安全设备和制造中的异常检测等创新用例。
开发人员可以在目标硬件上运行模型,而不依赖于框架。
据悉,Neo-AI 可以兼容一系列机器学习框架,包括 TensorFlow、MXNet、PyTorch、ONNX,以及来自英特尔、英伟达和 ARM 的辅助平台(不久将支持 Xilinx、Cadence 和 Qualcomm 等项目)等。
事实上,Neo-AI 运行时占用的空间并不大,仅需要 1M 的磁盘空间(流行的深度学习库所需的是 500M-1GB),另外,它主要在 Amazon SageMaker Neo 运行时运行。
英特尔人工智能产品部总经理纳维·拉奥(Naveen Rao)表示,为了从人工智能中获得价值,人们必须确保深度学习模型可以像在边缘设备上一样轻松地部署在数据中心和云中。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论