TensorFlow被指存在自身安全风险
极客时间编辑部
讲述:丁婵大小:1.06M时长:02:19
近日,腾讯安全平台部预研团队发现谷歌人工智能学习系统 TensorFlow 存在自身安全风险,可被黑客利用导致安全威胁,团队已经向谷歌报告这一风险并获得对方致谢。
该团队发现,攻击者可以生成 Tensorflow 的恶意模型文件,对 AI 研究者进行攻击。具体来说危害主要有以下四个方面:
漏洞被成功利用后,被攻击者的电脑可被恶意控制,导致 AI 模型被盗或被恶意篡改;
该漏洞利用成本低,普通攻击者即可实施;
攻击成功率高,该漏洞利用迷惑性强,大部分 AI 研究者可能毫无防备;
漏洞危害面大,漏洞利用的是 Tensorflow 本身的机制,其 PC 和移动平台的最新版本都会受到影响。
AI 模型被窃取,损失的是开发者的心血,而一旦模型被篡改,造成 AI 失控,后果更是难以想象。
该团队表示,传统 AI 安全,主要研究 AI 算法的恶意对抗,对 AI 框架等基础设施的安全性关注不够,尤其是 AI 框架自身的安全性,该漏洞就是利用 TensorFlow 框架自身的设计缺陷。
本次发现漏洞的思路同样适用于其他机器学习框架,如 caffe 等。
针对此事,谷歌官方负责人称,考虑到 TensorFlow 在 AI 中的广泛使用,他们将会像大多数重要软件一样在 TensorFlow 官网创建安全公告页面,及时披露和修复安全漏洞。
根据谷歌介绍,TensorFlow 目前在 Github 上获得的好评星星已经超过 67000 颗,它是最受欢迎的深度学习框架之一,也是谷歌大力推广的工具。TensorFlow 作为开源框架已经被互联网广泛使用,在谷歌、eBay、Airbnb、Twitter、Uber、京东、联想、小米、中兴等公司均有使用。
在 TensorFlow 中,AI 研究者可以复用他人建好的模型来进行训练,或者直接提供 AI 服务,大大提高开发效率。这些公开的模型通常以文件形式提供,也普遍被认为是无害的。不过,此次安全事件让关注该领域的开发者对开源框架的潜在风险提高了警惕。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
该免费文章来自《极客视点》,如需阅读全部文章,
请先领取课程
请先领取课程
免费领取
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论