极客视点
极客时间编辑部
极客时间编辑部
113232 人已学习
免费领取
课程目录
已完结/共 3766 讲
2020年09月 (90讲)
时长 05:33
2020年08月 (93讲)
2020年07月 (93讲)
时长 05:51
2020年06月 (90讲)
2020年05月 (93讲)
2020年04月 (90讲)
2020年03月 (92讲)
时长 04:14
2020年02月 (87讲)
2020年01月 (91讲)
时长 00:00
2019年12月 (93讲)
2019年11月 (89讲)
2019年10月 (92讲)
2019年09月 (90讲)
时长 00:00
2019年08月 (91讲)
2019年07月 (92讲)
时长 03:45
2019年06月 (90讲)
2019年05月 (99讲)
2019年04月 (114讲)
2019年03月 (122讲)
2019年02月 (102讲)
2019年01月 (104讲)
2018年12月 (98讲)
2018年11月 (105讲)
时长 01:23
2018年10月 (123讲)
时长 02:06
2018年09月 (119讲)
2018年08月 (123讲)
2018年07月 (124讲)
2018年06月 (119讲)
时长 02:11
2018年05月 (124讲)
时长 03:16
2018年04月 (120讲)
2018年03月 (124讲)
2018年02月 (112讲)
2018年01月 (124讲)
时长 02:30
时长 02:34
2017年12月 (124讲)
时长 03:09
2017年11月 (120讲)
2017年10月 (86讲)
时长 03:18
时长 03:31
时长 04:25
极客视点
15
15
1.0x
00:00/02:11
登录|注册

IBM 开源检测模型及对抗攻击工具箱

讲述:丁婵大小:1.00M时长:02:11
为了防止 AI 模型受到误导而产生错误的判断,研究人员需要通过不断的模拟攻击,来确保 AI 模型不会受到欺骗。
近日,IBM 研究团队开源了用于检测模型及对抗攻击的工具箱 Adversarial Robustness Toolbox,来协助开发人员加强针对 AI 模型攻击的防御性,让 AI 系统变得更加安全。
近几年,AI 在认知问题上取得了不少突破,生活中的许多任务也都开始加入 AI 技术,比如辨识图像和影片中的物体、语音转文字、机器翻译等。
不过,深度学习网络如果受到经过设计的干扰讯号的影响,就很容易产生错误的判断,而这些类型的干扰是人类难以察觉的,这就导致可能会有人恶意利用这样的弱点,来误导 AI 模型的判断,并将其用于不当的行为。
目前,Adversarial Robustness 工具箱主要提供增强电脑视觉辨识的防御性,为开发人员提供了新型防御技术,并且在实际部署 AI 模型时,能够防御恶意的误导攻击。据了解,该工具箱是用 Python 撰写而成的,因为 Python 是建立、测试和部署深度神经网路最常用的语言,包含了对抗和防御攻击的方法。
开发人员可以使用该工具箱,来检测深度神经网路的稳固性,主要记录模型对不同干扰的输出结果,再透过攻击的资料集来强化 AI 模型,最后标注攻击模式和讯号,防止模型因干扰讯号,产生错误结果。
据了解,该工具箱目前支持 TensorFlow 和 Keras,未来预计会支持更多框架,比如 PyTorch 或 MXNet。另外,该工具箱现在主要是提供图像识别的防御,未来将会增加更多领域的版本,如语音识别、文字识别和时间序列等。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
免费领取
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
7
沉浸
阅读
分享
手机端
快捷键
回顶部