今天我给你分享一下如何解放我们 TensorFlow 上面的 CPU 算力枷锁,首先我们可以知道,TensorFlow 已经支持非常多的硬件平台了。比如说 GPU,甚至 TPU,然后它也能在我们的手机上面 嵌入式设备上面以及大型的服务器上面去运行。但是,对于大多数的用户来说 CPU 其实还是我们的主要的硬件平台。因为首先 GPU 比较昂贵,TPU 只能在谷歌云上使用,那么 CPU 就成为了我们的第一选择。
尤其是我们的笔记本上面,可能就是 CPU。另外,还有一些就是在我们的很多的这个服务场景里面。比如,我们把模型训练好了,要把它变成 AI 模型服务,这个时候如果我们全部都使用 GPU 的话,它是非常昂贵的。那大部分的公司,就会选择采用这个 CPU 的机器。那么在你的这个模型服务的部署过程当中。如果给你的是一台 CPU 的服务器,你如何在不变更硬件平台的情况下去提升你的模型服务性能呢?那今天我们就来讲一讲,如何提升 CPU 上面的性能,解放这个 CPU 的算力枷锁?
彭靖田,Google Developers Expert。开源项目 Kubeflow 维护者,TensorFlow 贡献者,曾一度成为 TensorFlow 社区全球前 40 的贡献者。国内第一本系统剖析 Google AI 框架专著《深入理解 TensorFlow》和视频课程《TensorFlow 快速入门与实战》的作者。
现任品览 Pinlan 联合创始人兼 CTO。历任华为公司 2012 实验室深度学习团队核心成员,参与华为深度学习平台的设计和研发工作。Caicloud 才云科技 Cloud AI 负责人,为能源、运营商等多个行业提供定制化人工智能平台方案。