AI 技术内参
洪亮劼
Etsy 数据科学主管,前雅虎研究院资深科学家
33455 人已学习
新⼈⾸单¥98
登录后,你可以任选6讲全文学习
课程目录
已完结/共 166 讲
开篇词 (1讲)
人工智能国际顶级会议 (31讲)
搜索核心技术 (28讲)
推荐系统核心技术 (22讲)
数据科学家与数据科学团队养成 (25讲)
AI 技术内参
15
15
1.0x
00:00/00:00
登录|注册

026 | ICML 2018论文精读:聊一聊机器学习算法的“公平性”问题

两种策略及主要结论
计算机算法的公平性问题
比较“种族公平”和“公平机会”策略
引入“结果曲线”工具来视觉化策略和效用差值的关系
探讨不同策略对人群效用差别的影响
测量误差对效用差值的影响
不同公平条件下的效用差值可能性
探讨具有公平性质的机器学习算法在决策场景中对少数族群的长期福祉
不公平的决策判断可能产生的后果
机器学习在决策场景中的应用
小结
论文的核心方法
论文的主要贡献
论文的背景
机器学习算法的“公平性”问题
ICML 2018论文精读

该思维导图由 AI 生成,仅供参考

在上一次的分享里,我们介绍了今年 ICML 大会的一篇最佳论文,这是一篇非常优秀的机器学习和计算机安全相结合的论文。这篇论文剖析了目前在白盒攻击的场景下,攻击方如何绕过一种叫作“混淆梯度”的情况,来实现有效攻击的目的。
今天,我们来分享 ICML 2018 的另一篇最佳论文,题目 Delayed Impact of Fair Machine Learning。这篇论文主要探讨了“公平”(Fair)在机器学习中的应用。论文的五位作者都来自加州大学伯克利分校。

论文的背景

这篇论文所探讨的主题是机器学习的“公平性”问题。近些年,这个主题受到了学术界越来越多的关注,但是对于普通的人工智能工程师和数据科学家来说,这个议题依然显得比较陌生和遥远。所以,我先来简单梳理一下这方面研究的核心思想。
机器学习有一个重要的应用,就是在各类决策场景中提供帮助,例如申请贷款、大学入学、警察执勤等。一个不可否认的特点是,这些决策很有可能会对社会或者个人产生重大的不可逆转的后果。其中一个重要的后果就是,针对不同的人群,有可能会产生意想不到的“不公平”的境况。比如,有一些普遍使用的算法,在帮助警察判断一个人是否可能是罪犯的时候,系统会认为美国黑人相对于白人更容易犯罪,这个判断显然存在一定的问题。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

ICML 2018最佳论文《Delayed Impact of Fair Machine Learning》探讨了机器学习中的“公平性”问题。该论文从理论角度探讨了具有公平性质的机器学习算法在决策场景中对少数族群带来长期福祉的影响。作者比较了不同公平条件下的效用差值变化,并引入了“结果曲线”工具来视觉化策略和效用差值的关系。论文得出了一些出乎意料的结论,例如最大化效用策略也有可能提升或不改变少数族裔的效用,而公平策略在某些情况下可能会导致“相对损害”。此外,论文还探讨了测量误差对效用差值的影响。这些研究成果对于理解机器学习算法的公平性问题以及在日常应用中的启发具有重要意义。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》
新⼈⾸单¥98
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部