2017谷歌大脑年终总结
极客时间编辑部
讲述:丁婵大小:1.43M时长:03:09
近日,谷歌大脑负责人杰夫·迪恩(Jeff Dean)发布了 2017 年度的谷歌大脑年度总结。文章中,杰夫·迪恩回顾了团队在 2017 年的核心研究,以及在多个 AI 领域的研究进展。
谷歌大脑团队的重点研究目标,在于提高在机器学习领域的理解力,以及解决新问题的能力,2017 年该团队主要研究了两大课题:
1. 自动化机器学习
自动化机器学习的目标,是开发出能让计算机自动解决新的机器学习问题的技术,而不需要人类机器学习专家逐一干预,这是真正的智能系统所需的基本功能。
谷歌开发了使用强化学习和进化算法设计神经网络结构的新方法,并将这项工作扩展到了 ImageNet 最新分类和检测结果中,并展示了如何自动学习新的优化算法和有效的激活函数。同时,谷歌正在积极与 Cloud AI 团队合作,将此项技术带给谷歌客户,并继续向多个方向推进这项研究。
2. 语言理解与生成
也就是通过开发一种新技术,来提高计算机系统理解和产生人类言语的能力,包括与谷歌语音团队合作改进端到端语音识别的方法,将谷歌语音识别生成系统的单词错误率降低了 16%。这项工作的一个好处是,它需要将许多独立的研究线索整合到一起。
此外,机器学习的安全和隐私的交互也是谷歌的研究重点,2017 年谷歌还研究了对抗性示例的特性,其中包括现实世界中的对抗性示例,以及如何在训练过程中大规模利用对抗性示例,使模型更加强大。
谷歌大脑团队和 Google Research 团队在 2017 年一直积极地为开放式机器学习研究开放有趣的新数据集,提供更多的大型标记数据集,包括:YouTube-8M、YouTube 绑定框、语音指令数据集、AudioSet、自动视觉行动(AVA)等。
今后,谷歌将继续开发新的机器学习算法和方法,包括胶囊、超网络、新型的多模式模型、基于注意的机制、符号和非符号学习优化方法以及一些新的强化学习算法改进等。
此外,2017 年,谷歌大脑先后发布了 TensorFlow 1.0 和 1.4 版本,更新的特性包括:交互式命令式编程的及早求值、TensorFlow 程序的优化编译器 XLA 以及适用于移动和嵌入式设备的轻量级框架 TensorFlow Lite。
TensorFlow 是 GitHub 上的第一个机器学习平台,也是 GitHub 上的五大软件库之一,它被许多公司和组织所使用,GitHub 上与 TensorFlow 相关的软件库超过了 24500 个。
此外,谷歌还在浏览器中发布了 deeplearn.js,一个开源的硬件加速深度学习 API 应用。杰夫·迪恩透露,2018 年,谷歌将尝试把 TensorFlow 模型直接部署到 deeplearn.js 环境中。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论