《AI寒冬将至》作者:AI存在十大问题
极客时间编辑部
讲述:丁婵大小:1.58M时长:03:28
此前,《AI 寒冬将至》的文章认为深度学习已经尘埃落定,就像股市会崩盘,AI 的寒冬一定会再次来临。近日,这篇文章的作者重新总结了自己对 AI 的观点,提出了 AI 存在的十大问题。
1. 我们被图灵对智能的定义所束缚了。
图灵将智能设定为游戏的解决方案,将人类置于判断的位置。但是,比如狗、猴子等都是非常聪明的生物,但是它们没有语言,因此不可能通过图灵测试。
2. 人工智能的核心问题是莫拉维克悖论(Moravec’s paradox)。
莫拉维克悖论的核心论点是,现实中最简单的问题比最复杂的游戏更难解决。我们沉迷于让 AI 在游戏中超越人类,然而,完全忽略了一个事实,对智能的最终判断是由现实本身,而不是由委员会作出的。
3. 我们的模型可能起作用,但往往是出于错误的原因。
深度学习显然已经解决了物体识别的问题,但是大量的研究表明,深度神经网络能识别物体的原因,与人类能观察到物体的原因大不相同。
4. 现实不是游戏。就算跟游戏有关,它也是一个无限的游戏集合,其中的规则一直在不断变化。
智能是一种机制,它会进化成让智能体自动解决问题。构建一个在玩固定规则的游戏时,能够胜过人类的机器,跟构建一个能够玩“规则不断变化的游戏”是不一样的。
5. 物理定律的规则是不变的。
为了在物理环境中行动,每一种生物体都掌握了一些定律,并不需要语言。比如小孩子在学会牛顿运动定律之前,就知道苹果会从树上掉下来。
6. 我们的视觉统计模型非常不足。
它们只是依赖于某一时间的事物,以及人类指定的抽象标签进行识别。就比如,深度神经网络能够看到数以百万计的苹果挂在树上的图像,但是永远不可能发现万有引力定律。
7. 常识对于人来说在太显而易见了,进而在数据中可能注意不到它们。对于人类来说,甚至没有意识到“常识”是什么,直到发现机器人做了一些很愚蠢的事情,
8. 如果想解决“莫拉维克的悖论”,就需要模仿生物体观察世界进行学习的能力,而不需要标签。实现这一目标需要构建一个系统,对未来的事件进行预测,并通过将实际的发展与系统的预测进行比较来学习。
9. 要在图灵的定义之外定义“智能”的特征。
现在,有一个想法是通过非平衡态热力学(non-equilibrium thermodynamics)来构建智能体,虽然这些智能体肯定通不过图灵测试(因为它们没有语言智能),但是需要一个框架来衡量工作的进展。
10. 我们今天所做的几乎所有称之为 AI 的事情,都是可以用语言表达的某种形式的自动化。自主应该是广义智能的同义词,因为它假设能够处理意外的、未经训练的,未知的事物。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
全部留言(3)
- 最新
- 精选
- royshu从头到尾都是某些人把AI夸大到人工生命的程度,AI只是辅助人类更好地完成工作。相信AI还有广阔的应用场景。2
- 梁小白😊能解决现实中的问题不断的解放人力就够了,不是吗?只要AI的应用场景在,能创造价值,应该就不会那么快衰落。1
- yuuki2023年回来看真的是打脸归属地:上海
收起评论