谷歌发布AI处理器TPU 3.0:性能提升8倍
极客时间编辑部
讲述:杜力大小:984.18K时长:02:06
近日,在 2018 谷歌 I/O 开发者大会上,谷歌正式发布了第三代 AI 人工智能 / 机器学习专用处理器 TPU 3.0。TPU 也就是 Tensor Processor Unit,是谷歌为机器学习定制的专用芯片 (ASIC),专为深度学习框架 TensorFlow 而设计。
相比传统 GPU 图形芯片,TPU 使用 8 位低精度计算以节省晶体管,对精度影响很小但可以大幅节约功耗、加快速度,同时还有脉动阵列设计,优化矩阵乘法与卷积运算,并使用更大的偏上内存,减少对系统内存的依赖。
据悉,TPU 3.0 的计算能力最高可达 100PFlops(每秒 1000 万亿次浮点计算),是去年第二代的 8 倍还多。作为比较,一个包含 16 个英伟达最新版 GPU 的芯片组能够提供的计算能力是 2 PFlops。
对此,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)说道:“这些芯片如此强大,以至于我们第一次不得不在我们的数据中心用上了冷却液。”液体冷却通常用于高性能计算芯片或 PC 中的一些性能导向的芯片。
谷歌在 2016 年的 I/O 大会上首次公布 TPU。不过在此之前 TPU 已在谷歌内部的一些项目中使用了一年多,如谷歌街景服务、 AlphaGo 等。
在去年的 I/O 大会上,谷歌就发布了第二代 TPU,还将这些升级版的 TPU 集成在一起成为 Cloud TPU。每个 TPU 都包含了一个定制的高速网络,构成了一个谷歌称之为 “TPU pod” 的机器学习超级计算机。
值得一提的是,在随后 Waymo CEO 上台介绍谷歌自动驾驶取得的新进展时,特别强调 Waymo 自动驾驶系统通过使用 TPU 将性能提高了 15 倍。
目前,几乎所有大公司都在开发自己的 AI 定制芯片,可谓竞争激烈,例如微软就押注比定制芯片更灵活的 FPGA,在近日召开的 Build 大会上公布了 Project Brainwave,其性能可与定制芯片相媲美,并且实时 AI 能力延迟相比 TPU 低 5 倍。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论