极客视点
极客时间编辑部
极客时间编辑部
113243 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/05:02
登录|注册

一种高效可控的开源文本生成方法

讲述:丁婵大小:6.91M时长:05:02
序列到序列(sequence-to-sequence)即 seq2seq 模型使机器翻译这个领域起了翻天覆地的变化,并且成为像摘要句子融合和语法错误纠正等各种文本生成任务的首选工具。近几年来,得益于模型架构的诸多改进和通过无监督的预训练来利用大量未注释文本的能力,神经网络方法的质量得到了相应的提升。
但是,把 seq2seq 模型用于文本生成会带来一些不可忽视的缺点,具体则取决于用例,比如生成不受输入文本支持的输出,即幻觉,以及需要大量训练数据才能达到良好的性能。此外,由于 seq2seq 模型通常是一个词一个词地生成输出,因此它们的推理速度天生就很慢。
《编码、标记、实现:高精度文本编辑》( Encode, Tag, Realize: High-Precision Text Editing)这篇文章中,提出了一个全新的开源文本生成方法,该方法旨在解决这三个缺点。
由于该方法速度快、精度高,因此被称为 LaserTagger。LaserTagger 不是从头开始生成输出文本,而是通过预测的编辑操作来标记单词以生成输出,这些预测的编辑操作随后在单独的实现步骤上应用于输入词组。这种方法在处理文本生成时不易出错,处理它的模型架构也可以选择更容易训练和更快执行的类型。

LaserTagger 的设计和功能

很多文本生成任务的一个显著特征是,在输入和输出之间常常存在高度重叠。比如,在检测和修复语法错误或是融合语句时,大多数输入文本可以保持不变,只有一小部分单词需要修改。因此,LaserTagger 会生成一系列编辑操作而不是一些实际的单词。
它的编辑操作是:把一个单词复制到输出、删除一个单词以及在标记过的单词前面添加短语 X,还可以选择删除这个标记过的单词。
所有添加的短语都来自于有限的词汇表。该词汇表是一个优化过程的结果,该过程有两个目标:把词汇表做得尽量小、把训练示例的数量尽量做大,其中唯一需要添加到目标文本中的单词来自该词汇表。由于存在一个有限的短语词汇表,因而输出决策的空间变小了,并且避免了模型随意添加单词的情况,从而减轻了幻觉的问题。输入和输出文本高度重叠的属性的一个推论是,所需的修改往往是局部的,并且彼此独立。这意味着,该编辑操作可以进行高度精确的并行预测,与自回归 seq2seq 模型(这种模型是根据先前的预测顺序执行预测)相比,前者的端到端速度明显提高。

结果

研究人员在 4 个任务上对 LaserTagger 进行了评估,这 4 个任务分别是:语句融合、拆分和改述、抽象摘要及语法纠正。 在这些任务中,LaserTagger 的表现与强大的基于 BERT 的 seq2seq 基线相当,而后者使用了大量的训练示例;并且当训练示例的数量有限时,LaserTagger 的性能显然优于后者。
另外,在有 1 百万个示例的完整数据集上训练时,LaserTagger 和基于 BERT 的 seq2seq 基线这两个模型表现相当,但在其具有 1 万个或更少示例的子集上训练时,LaserTagger 的表现明显优于基线模型( SARI 得分越高越好)。

LaserTagger 的主要优点

与传统的 seq2seq 模型相比,LaserTagger 具有以下优点:
控制:通过控制输出短语词汇表(我们也可以手动编辑或整理),LaserTagger 比 seq2seq 基线模型更不易产生幻觉。
推理速度:在预测方面,LaserTagger 比 seq2seq 基线模型快,速度之差最高可达 100 倍,使之更适合用于实时应用程序。
数据效率:即使只使用几百个或几千个训练示例进行训练,LaserTagger 也可以产生合理的输出。在实验中,一个有竞争力的 seq2seq 基线模型需要上万个示例才能获得相应的表现。
而在进行大规模应用时,LaserTagger 的优点变得更明显,比如通过缩短应答的长度并减少重复性可以在某些服务中改善语音应答的格式。较高的推理速度使得该模型可以直接插入现有的技术栈,而不会在用户端增加任何可察觉的延迟,与此同时,改善的数据效率可以收集多种语言的训练数据,从而让具有不同语言背景的用户都可以从中受益。LaserTagger 的代码已经在 GitHub 社区开源了。
以上就是今天的内容,希望对你有所帮助。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

全部留言(1)

  • 最新
  • 精选
  • 小斧
    控制:通过控制输出短语词汇表(我们也可以手动编辑或整理),LaserTagger 比 seq2seq 基线模型更不易产生幻觉。 推理速度:在预测方面,LaserTagger 比 seq2seq 基线模型快,速度之差最高可达 100 倍,使之更适合用于实时应用程序。 数据效率:即使只使用几百个或几千个训练示例进行训练,LaserTagger 也可以产生合理的输出。在实验中,一个有竞争力的 seq2seq 基线模型需要上万个示例才能获得相应的表现。
收起评论
大纲
固定大纲
LaserTagger 的设计和功能
结果
LaserTagger 的主要优点
显示
设置
留言
1
收藏
22
沉浸
阅读
分享
手机端
快捷键
回顶部