008 | 精读2017年ICCV最佳学生论文
洪亮劼
该思维导图由 AI 生成,仅供参考
周一我们认真剖析了 ICCV 2017 年的最佳研究论文“Mask R-CNN”。今天我们来分享 ICCV 2017 的最佳学生论文《焦点损失用于密集物体检测》(Focal Loss for Dense Object Detection)。
可以说,这篇文章是我们周一分享的最佳论文的孪生兄弟。首先,这篇论文的作者群也基本是 Facebook 人工智能研究院的班底。其次,这篇文章解决的问题也很类似,也是物体识别和语义分割,只是不解决数据点分割的问题。
作者群信息介绍
除第一作者外,这篇论文的作者都来自 Facebook 的人工智能研究院。
第一作者林仓义(Tsung-Yi Lin),目前在谷歌大脑(Google Brain)团队工作,发表论文的时候在 Facebook 人工智能研究院实习。林仓义在台湾国立大学获得本科学位,在加州大学圣地亚哥分校获得硕士学位,2017 年刚从康奈尔大学博士毕业。博士期间,他师从计算机视觉专家塞尔盖⋅比隆基(Serge Belongie),发表了多篇高质量的计算机视觉论文。
第二作者皮里亚⋅高耶(Priya Goyal)是 Facebook 人工智能研究院的一名研究工程师。在加入 Facebook 之前,皮里亚从印度理工大学获得了学士和硕士学位。
第三作者罗斯⋅吉尔什克(Ross Girshick),第四作者何恺明,还有最后一个作者皮奥特⋅多拉(Piotr Dollár),这三位作者也是周一的最佳研究论文的作者,我们已经介绍过了,你可以回去再了解一下。
论文的主要贡献
我们首先来看一下这篇文章的主要贡献。
刚才我们已经简单地谈到了,这篇文章要解决的问题,就是对输入图像进行物体识别和语义分割这两个任务。对于这个问题有两种主要的思路,这两个思路都在不断地发展。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
ICCV 2017最佳学生论文《焦点损失用于密集物体检测》介绍了一种新的目标函数“焦点损失”以及相应的深度网络结构RetinaNet,用于解决图像物体识别中的不平衡数据集问题。该论文的作者群主要来自Facebook人工智能研究院,其中第一作者林仓义在谷歌大脑工作,其他作者也有丰富的研究经验。论文主要贡献在于提出了“焦点损失”目标函数,用于解决单阶段模型在不平衡数据集上的训练困难,使得单阶段模型在效果上能够与传统的两阶段模型媲美。该目标函数的核心在于对传统交叉熵目标函数进行了改动,使得在数据点被分错类且真实概率较小时,损失仍然较大,而在数据点的真实概率趋近1时,损失相对减小。此外,论文还提出了RetinaNet网络结构,采用了ResNet和FPN网络架构,并使用Anchor思想来进行物体分类和矩形框定位。实验结果表明,RetinaNet在COCO数据集上的检测效果优于传统单阶段模型,并且至少与经典的两阶段模型持平甚至更好。该论文的介绍为读者提供了对新的目标函数和网络结构的深入了解,为解决图像物体识别中的不平衡数据集问题提供了新的思路。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》,新⼈⾸单¥98
《AI 技术内参》,新⼈⾸单¥98
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
全部留言(1)
- 最新
- 精选
- 林彦传统的机器学习针对数据集不平衡可以对比例小的过采样,比例大的欠采样,还有对目标函数根据数据比例进行缩放。2018-01-242
收起评论