AI 技术内参
洪亮劼
Etsy 数据科学主管,前雅虎研究院资深科学家
33455 人已学习
新⼈⾸单¥98
登录后,你可以任选6讲全文学习
课程目录
已完结/共 166 讲
开篇词 (1讲)
人工智能国际顶级会议 (31讲)
搜索核心技术 (28讲)
推荐系统核心技术 (22讲)
数据科学家与数据科学团队养成 (25讲)
AI 技术内参
15
15
1.0x
00:00/00:00
登录|注册

025 | ICML 2018论文精读:模型经得起对抗样本的攻击?这或许只是个错觉

思考题
核心方法
主要贡献
背景
ICML 2018论文精读

该思维导图由 AI 生成,仅供参考

2018 年 7 月 10 日~15 日,国际机器学习大会 ICML 2018(The 35th International Conference on Machine Learning),在瑞典的斯德哥尔摩举行。
ICML 从 1980 年开始举办,已有 30 多年的历史 ,是机器学习、人工智能领域的顶级会议。
今年 ICML 大会共收到了 2473 份投稿,投稿量和去年相比增加了 45%。今年最后录取了 621 篇论文,录取率近 25%。除了主会议以外,ICML 大会还组织了 9 个讲座,67 个研讨班。
在接下来的几期内容里,我会为你精选三篇 ICML 2018 的论文,我们一起来讨论。
今天,我和你分享的是大会的最佳论文,题目是《梯度混淆带来的安全错觉:绕过对对抗样本的防御》(Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples)。
先简单介绍下这篇论文的作者群。
第一作者阿尼什·阿提耶(Anish Athalye)是麻省理工大学的博士生,主要研究方向是机器学习算法的安全。他在今年的 ICML 大会上就发表了 3 篇论文。
第二作者尼古拉·泽多维奇(Nickolai Zeldovich)是阿提耶的导师。他是麻省理工大学计算机系的教授,做安全相关的研究。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

ICML 2018最佳论文《梯度混淆带来的安全错觉:绕过对对抗样本的防御》揭示了对抗样本攻击在白盒攻击场景下的挑战。作者指出现有防御方法可能只是带来了一种由“梯度混淆”所导致的错觉。论文分析了梯度混淆的三种类型:扩散梯度、随机梯度和消失/爆炸梯度,并提出了相应的攻击方案,展示了在ICLR 2018数据集上的有效性。此外,论文总结了识别梯度混淆的方法,如一步攻击效果优于迭代攻击、黑盒攻击效果优于白盒攻击等,并提出了针对梯度混淆的攻击方法,如BPDA、变换之上的期望和重新参数化。这些方法为解决对抗样本攻击提供了新的思路和技术手段。 该论文的重要性在于揭示了对抗样本攻击在白盒攻击场景下的挑战,并提出了针对梯度混淆的攻击和防御方法。这对于深度学习模型的健壮性和安全性具有重要意义,有助于提高模型的鲁棒性,保护模型免受对抗样本攻击的影响。这对于保护人工智能系统的安全性和可靠性具有现实意义,尤其是在安全关键领域的应用,如自动驾驶、医疗诊断等。因此,研究深度学习模型的健壮性和抵抗对抗攻击的能力对于保障人工智能系统的安全性和可靠性至关重要。 这篇论文的研究成果为解决对抗样本攻击提供了新的思路和技术手段,对于深度学习模型的安全性和鲁棒性具有重要意义,值得学术界和工业界的关注和深入研究。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》
新⼈⾸单¥98
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部