人工智能伦理在东西方的8大差异
极客时间编辑部
讲述:丁婵大小:6.75M时长:04:55
近日,剑桥大学未来智能研究中心研究员丹尼特·加尔(Danit Gal)在 2019 北京智源大会上发表演讲,她认为东西方在管理方式、文化、社会等方面的不同,导致东西方在人工智能伦理方面存在 8 大差异。以下为加尔的观点。
差异一:可及性
要确保我们的技术是可及的、可用的,且为全世界的程序开发者所使用。在中国,不同公司有不同的数据库,如果有公司想获得额外的数据时,它需要向政府申请,由政府来批准。在西方,虽然每个公司也有自己的数据库,但谷歌的数据库不会跟苹果分享,即便有些数据分享了,代码也是不会分享的。
加尔认为,中国的网络安全法更加重要,要优于西方的网络安全法。
差异二:责任性
要保证行动和行动所造成的后果是可追溯的,要知道中间的操作机构应该负起什么样的责任,以及谁应该负这样的责任。在中国,政府会把一些 APP 列入“黑名单”,把它彻底删除,这些 APP 如果想重新进入市场,就需要经过政府的批准。
差异三:可制性
使用技术的人要能够控制技术。以“人对于机器控制的层级架构”为例,这里的“人”是谁?可能是一个公司的技术开发负责人,他应该是能做最终决策的。但在韩国是有决策层级的,这个人可以在特殊场景中做决策,但他的上级还有上级,在往上还有上级,做最终决策的很可能是 CEO。
因此,我们要了解,不同的社会有不同的架构,最终做决策的那个人也是不同的。
差异四:可解释性
要确保技术是可以解释的、可以被审核的、可以找到因果关系的。比如,AI 做了一个决定,那谁应该负责任?是 AI 还是开发者?
在一些国家,有观点认为,AI 做出的决策是自动的,应该修改 AI,应该让 AI 负责任,开发这个 AI 的人不需要负责任。
在另一些国家中,AI 的开发者和 AI 的使用者都会负一定的责任。AI 的使用者必须要确保他们对 AI 有充分的了解才能使用,所以,他们需要承担一定的责任。AI 的开发者也需要承担一定的责任。
有了可解释性,可以界定谁来负责任,到底是 AI,还是人。
差异五:公平性
要确保我们的技术是公平的,不会造成一些偏见和不公平的情况。如果一个国家的总人口中有 95% 的人来自不同种族,而另外一个国家基本上人人都来自同一个种族,这两个国家的人口种族分布情况是不一样的。因此,在全世界范围内应用同样的 AI 系统时,我们必须要进行不同的讨论。对具有很大差异化的国家,在设计的时候,我们必须要有针对性的考虑。
差异六:以人为中心
我们要确保我们的设计是以人为中心的,技术的发展要有人的参与,如果没有人的参与,这个技术就毫无意义。日本有一个“社会共同发展 6.0”,谈的是人的尊严以及技术发展具有同等的重要性。只有把人和技术放到一起的时候,才能为这个技术更好地赋能,更加有力。
差异七:技术或者个人信息的保护
一些个人数据可能在网上被滥用,中国也存在数据滥用的状况,为此,中国政府出台了很多法律法规和政策来保护人的信息安全。如果出现违法使用个人信息的情况,这些信息一定要被删除。
这一点和西方国家不太一样。在西方,谁来保护人们以及“谁是人们”这样的定义是不一样的。这不意味着西方的人没有隐私,而是我们的隐私定义不同。
差异八:透明性
我们要确保技术的使用是透明的、可追溯的。它对用户透明,还是对政府透明?还是对其他的公司透明?谁需要这么高水平的透明性?
在中国,透明的级别非常直截了当,要对政府透明,而不是对用户透明。那我们如何确保不同的机构之间都是透明的?如果能做到足够的透明,各个机构就能够知道自己的数据被如何使用。
以上是加尔对于东西方人工智能伦理差异的看法,你是否认同呢?
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
全部留言(2)
- 最新
- 精选
- 一缕绒花那西方对隐私怎么定义的呢2
- 悟我们有“大总管”,西方基本没有,😄
收起评论