学者们对于AI发展的理想路线的争论
极客时间编辑部
讲述:丁婵大小:2.25M时长:02:27
近几年来,随着深度学习的学术研究和工业应用都越发火热,大多数研究者们开始形成一个共识,那就是“未来的通用人工智能(AGI)一定不会是多层神经网络”。逻辑推理、高层次概念抽象、小样本多任务学习等等重要的智慧组成部分在多层神经网络上都欠奉,整个领域逐渐形成这样的认知就理所当然了。
最近,有“强化学习之父”之称的理查德·萨顿(Richard Sutton)发表了一篇文章,揭示了一个真正有争议的问题:关于 AI 研究的方法论,是要设计会学习的、能利用大规模计算能力的方法(元算法),即便我们现在的计算能力还不足以支持这样的方法,但我们静等算力发展就好,要想办法把人类的知识直接做成模型的一部分,这才是原理化、结构化的做法。
这个问题形成了不小的讨论,许多知名学者都发表了自己的意见。
谷歌大脑研究员戴维·哈(David Ha)表示,这就像扩大简单的随机搜索的规模,就可以避免使用集成了领域知识的强化学习算法一样,往往那些可以拓展规模的方法才能够经受时间考验。能够拓展的系统具有简单、优雅的设计,也便于理解,设计这样的系统也需要更高的人类智慧。
同时,也有反对的声音。牛津大学计算机科学学院教授希蒙·惠特森(Shimon Whiteson)表示,AI 领域的历史告诉我们,对计算能力的应用最后总是能够胜过对人类知识的应用,这是对历史的故意曲解。
AI 的历史并不是一部集成人类知识的失败史,恰恰相反,如今 AI 的成功正是因为留下了有用的人类知识,而且这个过程也是完全正常的科研策略体现。
此外,康奈尔大学博士、MIT 博士后、机器学习量化分析师赛斯·斯塔福德(Seth Stafford)则持中立态度,他表示,理查德·萨顿和希蒙·惠特森观点的区别是,把人类的知识集成到模型里所增加的价值是否符合我们希望的“原则性”的方法。萨顿的教训是,针对单个任务的技巧是不行的;但惠特森认为更深入的(原则性更强的)方法是可以的。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论