欧盟智库重磅报告:人类到底该不该畏惧AI?
极客时间编辑部
讲述:丁婵大小:1.43M时长:03:08
近日,欧盟议会研究服务的科技选项评估小组(STOA)发布了一份重磅报告,探讨人类是否应该畏惧人工智能这一热门主题。
关于 AI 有很多耸人听闻的谣言,其中最广为流传的是它将会对人类造成巨大威胁,例如 AI 可能有意识、快速地制造出一种超级癌症杀死人类。但是这种情节只会出现在电影和科幻小说中,而在现实世界中,AI 的发展要经过缓慢而痛苦的训练过程,并不会在短时间内变聪明。
目前,人工智能有三大定律,对于各种各样的谣言,都可以逐一击破。
第一定律:问题催生智能
研究发现,智能是为解决问题而存在的。没有问题的存在,智能就不会消失或增加。只有当问题更复杂、更难以预测时才会需要智能,而没有正向激励,算法的智力就不会提高。
人工智能是一个非常难以企及的目标,需要完全正确的条件和相当大的工作量。而且,不会出现失控的自我进化的 AI。人工智能只会在人们的控制和鼓励下开发智能。
退一万步讲,即使真的制造出了超级智能,它也不一定会伤害人类。它只是一种满足人们需求的工具,像收割机一样,是为了满足人类需要而设计的。
第二定律:智能需要合适的结构
艾伦·图灵发明了理论计算机科学,人们无法预测是否有任何算法(包括人工智能)会在计算过程终止(图灵,1937 年)。另外,根据“没有免费的午餐定理“,得出没有任何算法可以成为所有问题的最优解决方案。
AI 第二定律表明仅有资源是不够的。开发人员仍需要用 AI 设计新的算法和结构,以解决不同的问题。
也是这些原因导致开发者无法用一种方法创造出通用智能。世界上还没有任何一种 AI 技术能用一种方法来处理语音、驾驶、玩视频游戏等任务。
第三定律:AI 需要综合测试
高级智能需要世界上最复杂的设计,但是即使是对智能设计做出的微小改变,都有可能对智能现有的能力造成致命的破坏。因此,智能设计需要经过全面检测,以确保其能解决所有设定的任务。但部分检验是不可行的,因为智能需要在所有指标上都准确无误才能被信任。
随着智能的提高,测试所需的时间可能呈指数增长。最终,测试会将实际应用的人工智能限于可实现、可信任的人工智能。
正如越接近光速,速度提升将变得越来越难,当建造出很聪明的人工智能时,再想提高也会越来越难。这正是人工智能研究和应用致力于寻找智能化解决方案的根本原因。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论