AI技术内参
洪亮劼
Etsy数据科学主管,前雅虎研究院资深科学家
立即订阅
8428 人已学习
课程目录
已完结 166 讲
0/6登录后,你可以任选6讲全文学习。
开篇词 (1讲)
开篇词 | 你的360度人工智能信息助理
免费
人工智能国际顶级会议 (15讲)
001 | 聊聊2017年KDD大会的时间检验奖
002 | 精读2017年KDD最佳研究论文
003 | 精读2017年KDD最佳应用数据科学论文
004 | 精读2017年EMNLP最佳长论文之一
005 | 精读2017年EMNLP最佳长论文之二
006 | 精读2017年EMNLP最佳短论文
007 | 精读2017年ICCV最佳研究论文
008 | 精读2017年ICCV最佳学生论文
009 | 如何将“深度强化学习”应用到视觉问答系统?
010 | 精读2017年NIPS最佳研究论文之一:如何解决非凸优化问题?
011 | 精读2017年NIPS最佳研究论文之二:KSD测试如何检验两个分布的异同?
012 | 精读2017年NIPS最佳研究论文之三:如何解决非完美信息博弈问题?
013 | WSDM 2018论文精读:看谷歌团队如何做位置偏差估计
014 | WSDM 2018论文精读:看京东团队如何挖掘商品的替代信息和互补信息
015 | WSDM 2018论文精读:深度学习模型中如何使用上下文信息?
搜索核心技术 (28讲)
031 | 经典搜索核心算法:TF-IDF及其变种
032 | 经典搜索核心算法:BM25及其变种(内附全年目录)
033 | 经典搜索核心算法:语言模型及其变种
034 | 机器学习排序算法:单点法排序学习
035 | 机器学习排序算法:配对法排序学习
036 | 机器学习排序算法:列表法排序学习
037 | “查询关键字理解”三部曲之分类
038 | “查询关键字理解”三部曲之解析
039 | “查询关键字理解”三部曲之扩展
040 | 搜索系统评测,有哪些基础指标?
041 | 搜索系统评测,有哪些高级指标?
042 | 如何评测搜索系统的在线表现?
043 | 文档理解第一步:文档分类
044 | 文档理解的关键步骤:文档聚类
045 | 文档理解的重要特例:多模文档建模
046 | 大型搜索框架宏观视角:发展、特点及趋势
047 | 多轮打分系统概述
048 | 搜索索引及其相关技术概述
049 | PageRank算法的核心思想是什么?
050 | 经典图算法之HITS
051 | 社区检测算法之“模块最大化 ”
052 | 机器学习排序算法经典模型:RankSVM
053 | 机器学习排序算法经典模型:GBDT
054 | 机器学习排序算法经典模型:LambdaMART
055 | 基于深度学习的搜索算法:深度结构化语义模型
056 | 基于深度学习的搜索算法:卷积结构下的隐含语义模型
057 | 基于深度学习的搜索算法:局部和分布表征下的搜索模型
复盘 1 | 搜索核心技术模块
推荐系统核心技术 (22讲)
058 | 简单推荐模型之一:基于流行度的推荐模型
059 | 简单推荐模型之二:基于相似信息的推荐模型
060 | 简单推荐模型之三:基于内容信息的推荐模型
061 | 基于隐变量的模型之一:矩阵分解
062 | 基于隐变量的模型之二:基于回归的矩阵分解
063 | 基于隐变量的模型之三:分解机
064 | 高级推荐模型之一:张量分解模型
065 | 高级推荐模型之二:协同矩阵分解
066 | 高级推荐模型之三:优化复杂目标函数
067 | 推荐的Exploit和Explore算法之一:EE算法综述
068 | 推荐的Exploit和Explore算法之二:UCB算法
069 | 推荐的Exploit和Explore算法之三:汤普森采样算法
070 | 推荐系统评测之一:传统线下评测
071 | 推荐系统评测之二:线上评测
072 | 推荐系统评测之三:无偏差估计
073 | 现代推荐架构剖析之一:基于线下离线计算的推荐架构
074 | 现代推荐架构剖析之二:基于多层搜索架构的推荐系统
075 | 现代推荐架构剖析之三:复杂现代推荐架构漫谈
076 | 基于深度学习的推荐模型之一:受限波兹曼机
077 | 基于深度学习的推荐模型之二:基于RNN的推荐系统
078 | 基于深度学习的推荐模型之三:利用深度学习来扩展推荐系统
复盘 2 | 推荐系统核心技术模块
广告系统核心技术 (0讲)
该章节暂未更新内容,敬请期待
自然语言处理及文本处理核心技术 (17讲)
097 | LDA模型的前世今生
098 | LDA变种模型知多少
099 | 针对大规模数据,如何优化LDA算法?
100 | 基础文本分析模型之一:隐语义分析
101 | 基础文本分析模型之二:概率隐语义分析
102 | 基础文本分析模型之三:EM算法
103 | 为什么需要Word2Vec算法?
104 | Word2Vec算法有哪些扩展模型?
105 | Word2Vec算法有哪些应用?
106 | 序列建模的深度学习利器:RNN基础架构
107 | 基于门机制的RNN架构:LSTM与GRU
108 | RNN在自然语言处理中有哪些应用场景?
109 | 对话系统之经典的对话模型
110 | 任务型对话系统有哪些技术要点?
111 | 聊天机器人有哪些核心技术要点?
112 | 什么是文档情感分类?
113 | 如何来提取情感“实体”和“方面”呢?
计算机视觉核心技术 (0讲)
该章节暂未更新内容,敬请期待
数据科学家与数据科学团队养成 (15讲)
127 | 数据科学家基础能力之概率统计
128 | 数据科学家基础能力之机器学习
129 | 数据科学家基础能力之系统
130 | 数据科学家高阶能力之分析产品
131 | 数据科学家高阶能力之评估产品
132 | 数据科学家高阶能力之如何系统提升产品性能
133 | 职场话题:当数据科学家遇见产品团队
134 | 职场话题:数据科学家应聘要具备哪些能力?
135 | 职场话题:聊聊数据科学家的职场规划
136 | 如何组建一个数据科学团队?
137 | 数据科学团队养成:电话面试指南
138 | 数据科学团队养成:Onsite面试面面观
139 | 成为“香饽饽”的数据科学家,如何衡量他们的工作呢?
140 | 人工智能领域知识体系更新周期只有5~6年,数据科学家如何培养?
141 | 数据科学家团队组织架构:水平还是垂直,这是个问题
热点话题讨论 (2讲)
151 | 精读AlphaGo Zero论文
152 | 2017人工智能技术发展盘点
结束语 (0讲)
该章节暂未更新内容,敬请期待
AI技术内参
登录|注册

004 | 精读2017年EMNLP最佳长论文之一

洪亮劼 2017-11-06

自然语言处理实证方法会议EMNLP(Conference on Empirical Methods in Natural Language Processing),是由国际计算语言学协会ACL(Association for Computational Linguistics)的专委会SIGDAT(Special Interest Group on Linguistic Data and Corpus-based Approaches to NLP)主办,每年召开一次,颇具影响力和规模,是自然语言处理类的顶级国际会议。从 1996 年开始举办,已经有 20 多年的历史。2017 年的 EMNLP 大会于 9 月 7 日到 11 日在丹麦的哥本哈根举行。

每年大会都会在众多的学术论文中挑选出两篇最具价值的论文作为最佳长论文(Best Long Paper Award)。 今天,我就带你认真剖析一下 EMNLP 今年的最佳长论文,题目是《男性也喜欢购物:使用语料库级别的约束条件减少性别偏见的放大程度》(Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints) 。这篇文章也是很应景,近期学术圈对于数据和机器学习算法有可能带来的“偏见”(Bias)感到关切,有不少学者都在研究如何能对这些偏见进行评估、检测,进而可以改进甚至消除。

作者群信息介绍

第一作者赵洁玉(Jieyu Zhao),论文发表的时候在弗吉尼亚大学计算机系攻读博士学位,目前,已转学到加州大学洛杉矶分校,从事如何从机器学习算法中探测和消除偏见的研究。之前她从北京航空航天大学获得学士和硕士学位,曾于 2016 年在滴滴研究院实习。

第二作者王天露(Tianlu Wang)也是来自弗吉尼亚大学计算机系的博士生,之前在浙江大学获得计算机学士学位。第三作者马克·雅茨卡尔(Mark Yatskar)是来自华盛顿大学的计算机系博士生,已在自然语言处理以及图像处理领域发表过多篇高质量论文。

第四作者文森特(Vicente Ordóñez)目前在弗吉尼亚大学计算机系任助理教授。他的研究方向是自然语言处理以及计算机视觉的交叉学科。他于 2015 年从北卡罗来纳大学教堂山分校计算机系博士毕业。博士期间,他在微软研究院、eBay 研究院以及谷歌都有过实习经历。他是第二作者王天露的博士导师。

文章最后一位作者是 Kai-Wei Chang,也是第一作者赵洁玉的导师。他目前在加州大学洛杉矶分校任助理教授,之前在弗吉尼亚大学任职。他于 2015 年从伊利诺伊大学香槟分校博士毕业,师从著名教授丹·罗斯(Dan Roth)。在之前的研究生涯中,曾先后 3 次在微软研究院实习,也在谷歌研究院实习过。在他研究的早期,曾参与了 LibLinear 这个著名支持向量机软件的研发工作。

论文的主要贡献

机器学习的一个重要任务就是通过数据来学习某些具体事项。最近机器学习的研究人员发现,数据中可能蕴含着一些社会赋予的偏见,而机器学习算法很有可能会放大这些偏见。这种情况在自然语言处理的相关任务中可能更为明显。比如,在一些数据集里,“做饭”这个词和“女性”这个词一起出现的比例可能要比和“男性”一起出现的比例高 30%,经过机器学习算法在这个数据集训练之后,这个比例在测试数据集上可能就高达 68% 了。因此,虽然在数据集里,社会偏见已经有所呈现,但是这种偏见被机器学习算法放大了。

因此,这篇文章的核心思想就是,如何设计出算法能够消除这种放大的偏见,使得机器学习算法能够更加“公平”。注意,这里说的是消除放大的偏见,而不是追求绝对的平衡。比如,我们刚才提到的数据集,训练集里已经表现出“女性”和“做饭”一起出现的频率要高于“男性”和“做饭”一起出现的频率。那么,算法需要做的是使这个频率不会进一步在测试集里升高,也就是说,保持之前的 30% 的差距,而不把这个差距扩大。这篇文章并不是追求把这个差距人为地调整到相同的状态。

文章提出了一个限制优化(Constrained Optimization)算法,为测试数据建立限制条件,使机器学习算法的结果在测试集上能够得到和训练集上相似的偏见比例。注意,这是对已有测试结果的一个调整(Calibration),因此可以应用在多种不同的算法上。

作者们使用提出的算法在两个数据集上做了实验,得到的结果是,新的测试结果不但能够大幅度(高达 30% 至 40%)地减小偏见,还能基本保持原来的测试准确度。可见,提出的算法效果显著。

论文的核心方法

那么,作者们提出的究竟是一种什么方法呢?

© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《AI技术内参》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(3)

  • 高峰
    也感觉是过拟合了。文中“限制优化”、数学上似乎更长用的应该是 “约束优化”这个词吧,😄
    2019-08-26
  • 韩 * *
    我觉得就是过拟合了,然后加正则限制的事儿,不过给了个消除“性别偏见”的说法
    2019-08-12
  • huan
    “偏见”也是一种模式,但并不是训练集上的被测量对象,从而容易出现“过拟合”;更进一步的,现在常用的训练方法中,即使已经完成被测量对象的模型参数的筛选,但是仍然需要跑相当多的全训练集Epoch,才“放心”的输出模型参数,而这可能更加增强了偏见的“过拟合”。我觉得现在的DNN的训练方法更容易造成偏见过度增强。
    我的一个问题是,注意到老师解读的论文中是偏见被修正的同时并没有减少准确率,如果能有效的察觉并发现这些偏见那?有没有相关的文献?或者相关的偏见的dataset?

    作者回复: 察觉偏见是一个比较新的研究课题。可以关注一下最新的一些进展。我没有跟进这方面的研究。

    2017-11-09
收起评论
3
返回
顶部