AWS推出MXNet模型服务器
极客时间编辑部
讲述:丁婵大小:1.13M时长:02:29
近日,AWS 发布了开源组件 Model Server for Apache MXNet,简称 MMS,旨在简化深度学习模型的部署。
MXNet 是一个开源的、精简的、具有灵活和高度可扩展能力的深度学习框架,它支持深度学习模型中的最新技术,包括卷积神经网络(CNN)和长短期记忆网络(LSTM)等。MXNet 和 Caffe、TensorFlow、Torch、Theano 等都是当前非常流行的深度学习框架。
众所周知,部署深度学习模型不是一项简单的任务,它要求收集各种模型文件、搭建服务栈、初始化和配置深度学习框架、暴露端点、实时发送度量指标等,并运行自定义的预处理和后置处理逻辑代码,而这些仅仅是繁杂步骤中的一部分。尽管每一个细项不会很复杂,但从整体来看,模型部署的过程繁琐而拖沓。
而 AWS 开源的 MMS 极大简化了 MXNet 深度学习模型部署过程,方便开发人员可以快速、大规模地使用 MXNet。
据 AWS 介绍,MMS 主要提供了以下特性:
提供了一个可以将多个模型文件打包和导出到单个“模型压缩”文件的工具,这个压缩包里包含了所有 MXNet 需要的模型。
自动搭建服务栈,包括用于推理的 HTTP 端点、基于 MXNet 的引擎等。
预配置的 Docker 镜像,包括 NGINX、MXNet 和 MMS 等。
可以自定义推理执行管道的每一个步骤,从模型初始化、预处理和推理,到后置处理和模型输出。
提供实时的运维度量指标,可用于监控推理服务和端点,包含了延迟、资源使用情况和错误信息等。
支持 OpenAPI 规范,可以自动生成主流编程语言的客户端代码,如 Java、JavaScript、C# 等。
开发者可以通过 PyPi 安装 MMS,或者直接从 GitHub 上下载。MMS 可以运行在 Mac 和 Linux 上。不过,如果要在生产环境中使用,AWS 则建议开发者使用 GitHub 仓库上预配置好的 Docker 镜像。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论