极客视点
极客时间编辑部
极客时间编辑部
113241 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/04:55
登录|注册

人工智能伦理在东西方的8大差异

讲述:丁婵大小:6.75M时长:04:55
近日,剑桥大学未来智能研究中心研究员丹尼特·加尔(Danit Gal)在 2019 北京智源大会上发表演讲,她认为东西方在管理方式、文化、社会等方面的不同,导致东西方在人工智能伦理方面存在 8 大差异。以下为加尔的观点。

差异一:可及性

要确保我们的技术是可及的、可用的,且为全世界的程序开发者所使用。在中国,不同公司有不同的数据库,如果有公司想获得额外的数据时,它需要向政府申请,由政府来批准。在西方,虽然每个公司也有自己的数据库,但谷歌的数据库不会跟苹果分享,即便有些数据分享了,代码也是不会分享的。
加尔认为,中国的网络安全法更加重要,要优于西方的网络安全法。

差异二:责任性

要保证行动和行动所造成的后果是可追溯的,要知道中间的操作机构应该负起什么样的责任,以及谁应该负这样的责任。在中国,政府会把一些 APP 列入“黑名单”,把它彻底删除,这些 APP 如果想重新进入市场,就需要经过政府的批准。

差异三:可制性

使用技术的人要能够控制技术。以“人对于机器控制的层级架构”为例,这里的“人”是谁?可能是一个公司的技术开发负责人,他应该是能做最终决策的。但在韩国是有决策层级的,这个人可以在特殊场景中做决策,但他的上级还有上级,在往上还有上级,做最终决策的很可能是 CEO。
因此,我们要了解,不同的社会有不同的架构,最终做决策的那个人也是不同的。

差异四:可解释性

要确保技术是可以解释的、可以被审核的、可以找到因果关系的。比如,AI 做了一个决定,那谁应该负责任?是 AI 还是开发者?
在一些国家,有观点认为,AI 做出的决策是自动的,应该修改 AI,应该让 AI 负责任,开发这个 AI 的人不需要负责任。
在另一些国家中,AI 的开发者和 AI 的使用者都会负一定的责任。AI 的使用者必须要确保他们对 AI 有充分的了解才能使用,所以,他们需要承担一定的责任。AI 的开发者也需要承担一定的责任。
有了可解释性,可以界定谁来负责任,到底是 AI,还是人。

差异五:公平性

要确保我们的技术是公平的,不会造成一些偏见和不公平的情况。如果一个国家的总人口中有 95% 的人来自不同种族,而另外一个国家基本上人人都来自同一个种族,这两个国家的人口种族分布情况是不一样的。因此,在全世界范围内应用同样的 AI 系统时,我们必须要进行不同的讨论。对具有很大差异化的国家,在设计的时候,我们必须要有针对性的考虑。

差异六:以人为中心

我们要确保我们的设计是以人为中心的,技术的发展要有人的参与,如果没有人的参与,这个技术就毫无意义。日本有一个“社会共同发展 6.0”,谈的是人的尊严以及技术发展具有同等的重要性。只有把人和技术放到一起的时候,才能为这个技术更好地赋能,更加有力。

差异七:技术或者个人信息的保护

一些个人数据可能在网上被滥用,中国也存在数据滥用的状况,为此,中国政府出台了很多法律法规和政策来保护人的信息安全。如果出现违法使用个人信息的情况,这些信息一定要被删除。
这一点和西方国家不太一样。在西方,谁来保护人们以及“谁是人们”这样的定义是不一样的。这不意味着西方的人没有隐私,而是我们的隐私定义不同。

差异八:透明性

我们要确保技术的使用是透明的、可追溯的。它对用户透明,还是对政府透明?还是对其他的公司透明?谁需要这么高水平的透明性?
在中国,透明的级别非常直截了当,要对政府透明,而不是对用户透明。那我们如何确保不同的机构之间都是透明的?如果能做到足够的透明,各个机构就能够知道自己的数据被如何使用。
以上是加尔对于东西方人工智能伦理差异的看法,你是否认同呢?
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

全部留言(2)

  • 最新
  • 精选
  • 一缕绒花
    那西方对隐私怎么定义的呢
    2
  • 我们有“大总管”,西方基本没有,😄
收起评论
大纲
固定大纲
差异一:可及性
差异二:责任性
差异三:可制性
差异四:可解释性
差异五:公平性
差异六:以人为中心
差异七:技术或者个人信息的保护
差异八:透明性
显示
设置
留言
2
收藏
5
沉浸
阅读
分享
手机端
快捷键
回顶部