026 | ICML 2018论文精读:聊一聊机器学习算法的“公平性”问题
洪亮劼
该思维导图由 AI 生成,仅供参考
在上一次的分享里,我们介绍了今年 ICML 大会的一篇最佳论文,这是一篇非常优秀的机器学习和计算机安全相结合的论文。这篇论文剖析了目前在白盒攻击的场景下,攻击方如何绕过一种叫作“混淆梯度”的情况,来实现有效攻击的目的。
今天,我们来分享 ICML 2018 的另一篇最佳论文,题目 Delayed Impact of Fair Machine Learning。这篇论文主要探讨了“公平”(Fair)在机器学习中的应用。论文的五位作者都来自加州大学伯克利分校。
论文的背景
这篇论文所探讨的主题是机器学习的“公平性”问题。近些年,这个主题受到了学术界越来越多的关注,但是对于普通的人工智能工程师和数据科学家来说,这个议题依然显得比较陌生和遥远。所以,我先来简单梳理一下这方面研究的核心思想。
机器学习有一个重要的应用,就是在各类决策场景中提供帮助,例如申请贷款、大学入学、警察执勤等。一个不可否认的特点是,这些决策很有可能会对社会或者个人产生重大的不可逆转的后果。其中一个重要的后果就是,针对不同的人群,有可能会产生意想不到的“不公平”的境况。比如,有一些普遍使用的算法,在帮助警察判断一个人是否可能是罪犯的时候,系统会认为美国黑人相对于白人更容易犯罪,这个判断显然存在一定的问题。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
ICML 2018最佳论文《Delayed Impact of Fair Machine Learning》探讨了机器学习中的“公平性”问题。该论文从理论角度探讨了具有公平性质的机器学习算法在决策场景中对少数族群带来长期福祉的影响。作者比较了不同公平条件下的效用差值变化,并引入了“结果曲线”工具来视觉化策略和效用差值的关系。论文得出了一些出乎意料的结论,例如最大化效用策略也有可能提升或不改变少数族裔的效用,而公平策略在某些情况下可能会导致“相对损害”。此外,论文还探讨了测量误差对效用差值的影响。这些研究成果对于理解机器学习算法的公平性问题以及在日常应用中的启发具有重要意义。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》,新⼈⾸单¥98
《AI 技术内参》,新⼈⾸单¥98
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论