极客视点
极客时间编辑部
极客时间编辑部
113233 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:15
登录|注册

OpenAI:通过无监督学习提高语言理解能力

讲述:杜力大小:1.03M时长:02:15
近日,基于一个可伸缩的、任务无关的系统,OpenAI 在一组包含不同的语言任务中,获得了最优的实验结果。他们通过将迁移学习与无监督的预训练相结合,证明了有监督的学习方法可以与无监督的预训练进行完美的结合。
据了解,OpenAI 将系统分成了两个阶段,首先,他们通过无监督的方式,在大数据集上训练一个迁移学习模型,训练过程中使用语言模型的训练结果作为信号,然后,在更小的有监督数据集上,对这个模型进行了微调,以帮助它解决特定的任务。
在前一个任务情绪神经元(sentiment neuron)中,研究人员注意到,通过利用足够的数据对模型进行训练,无监督学习可以获得令人惊讶的判别特征。
为了进一步证明这个想法,OpenAI 开发了一个模型,以一种无监督的方式使用大量数据对模型进行训练,然后对模型进行微调,以便在不同的任务中都能获得良好的性能。最后的研究结果表明,这种方法的效果出奇地好。同样的核心模型可以针对完全不同的任务进行微调,以适应任务。
据介绍,这个研究是基于在半监督序列学习中引入的方法,该方法展示了如何通过对 LSTM 进行无监督的预训练,然后进行有监督的微调,来提高文本分类的能力。
另外,这种方法在 COPA、RACE 和 RocStories 三个数据集上,性能表现得都比较出色,这些数据集是用来测试常识推理和阅读理解的。在这些数据集上的测试表明,无监督的技术有希望开发复杂的语言理解能力。
但是,这个项目还有一些缺点需要注意:
计算要求:许多以前的 NLP 任务方法都是从头开始的,在单个 GPU 上训练相对较小的模型,而这种方法需要昂贵的预训练步骤。
学习的文本中所包含的信息具有局限性,不能包含世界的完整、准确的信息,并且某些类型的信息很难通过文本学习。
脆弱的泛化能力:目前的深度学习 NLP 模型的表现,有时仍然是违反直觉并且令人震惊的,尤其是在以系统性、对抗性或分布式分布的方式进行评估时。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
7
沉浸
阅读
分享
手机端
快捷键
回顶部