机器学习研究的四大危机
极客时间编辑部
讲述:杜力大小:1.13M时长:02:28
近期,AI 顶会 ICML 在斯德哥尔摩举办了一场辩论会,专门供各家学者、研究人员积极探讨领域内技术的现状、瓶颈以及对社会的影响。
有 AI 小网红之称的扎卡里·利普顿(Zachary C.Lipton)和斯坦福研究员雅各布·斯坦哈特(Jacob Steinhardt)发表了文章,指出现在机器学习研究中的四大危机,包括混淆阐述与推测、无法明确得到较好结果的原因、数学公式堆积,以及语言误用。
尽管机器学习最近取得了一些进展,但是,这些“理想”的状态往往与现实背离。在这篇文章中,两位研究员将重点放在了以下四种模式上,这些模式在 ML 学术(schoolar-ship)中似乎是最流行的:
无法区分客观阐述和推测。
无法确定得到较好结果的原因,例如,当实际上是因为对超参数微调而获得好效果的时候,却强调不必要修改神经网络结构。
数学公式堆积:使用令人混淆的数学术语而不加以澄清,例如混淆技术与非技术概念。
语言误用,例如,使用带有口语的艺术术语,或者过多的使用既定的技术术语。
虽然这些模式背后的原因是不确定的,但是会导致社区的迅速扩张、评阅的人数不足,以及学术和短期成功衡量标准(如文献数量、关注度、创业机会)之间的不平衡。虽然每种模式都提供了相应的补救措施(但不建议这么做),但是,还是需要讨论一些关于社区如何应对这些趋势的推测性建议。
实际上,有缺陷的学术研究可能会误导大众,并阻碍学术未来的研究。这些问题有许多是在人工智能的历史(更广泛地说,是在科学研究)中循环出现的。
早在 1976 年,德鲁·德莫特(Drew Mc-Dermott)认为人工智能社区放弃了自律,并预言“如果我们不能批判自己,别人就会帮我们解决问题”。
类似的讨论在整个 80 年代、90 年代和 2008 年都曾反复出现。当今机器学习的强劲潮流,应该归功于迄今为止大量严谨的研究,包括理论研究和实证研究。
两位研究员在文章中表示,通过提高清晰明了的科学思维和交流,可以维持社区目前所享有的信任和投资。可能有人会认为这些问题能够通过自律、自我纠正来改善。这个观点虽然是正确的,但是机器学习社区需要进行反复讨论,来研究如何构建合理的学术标准以实现这种自我修正。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论