谷歌全新语音识别系统:词错率降至5.6%
极客时间编辑部
讲述:丁婵大小:1.26M时长:02:45
近日,谷歌发表论文,介绍了他们对端到端语音识别模型的最新研究成果。这一新模型建立在 Listen-Attend-Spell 端到端架构之上,简称 LAS 架构,谷歌结合多种优化算法来提升 LAS 模型的性能。
相较于分离训练的传统系统,新方法充分地发挥了联合训练的优势,在语音搜索任务中取得了当前业内最低的词错率结果。
传统自动语音识别系统(ASR)一直被谷歌的多种语音搜索应用所使用,它由声学模型(AM)、发音模型(PM)和语言模型(LM)组成,所有这些都会经过独立训练,同时通常是由手动设计的,各个组件会在不同的数据集上进行训练。而独立训练会产生额外的复杂性,最终得到的性能低于联合训练所有的组件。
近几年,业界出现了越来越多的端到端系统,尝试以单个系统的方式联合学习这些分离的组件,谷歌此次的研究就是其中之一。
据谷歌介绍,新的 LAS 模型的词错率(WER)降低到了 5.6%,相对于目前业内的最佳系统的 6.7% 提高了 16% 的水平。同时,该模型的大小只有传统模型的 1/18,因为它不包含分离的发音模型和语言模型。
LAS 模型的所有组件会通过单个端到端的神经网络联合训练,相较于传统系统的分离模块更加简单。此外,因为 LAS 模型都是神经网络类型,因此并不需要添加外部的手动设计组件,例如有限状态转换器、词典或文本归一化模块等。
在 LAS 模型中,谷歌还引入了一种新型的结构化提升,包括优化传递给解码器的注意力向量、优化更长的子字单元的训练过程等。此外,谷歌还引入了大量的优化训练过程的方法,如最小词错率训练法。正是这些结构化和优化提升使新模型取得了相对于传统模型 16% 的性能提升。
这项研究的另一个潜在应用是多方言和多语言系统,仅需优化单个神经网络所带来的简单性是很有吸引力的。所有的方言、语言可以被组合以训练一个网络,而不需要为每个方言、语言分配分离的声学模型、发音模型和语言模型。
虽然结果很吸引人,但是研究人员认为目前的探索还尚未完成,如还不能实时地处理语音、在实际的生产数据中表现不佳等,谷歌表示,他们接下来的目标就是解决这些问题。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论