机器学习 40 讲
王天一
工学博士,副教授
37162 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已完结/共 49 讲
机器学习 40 讲
15
15
1.0x
00:00/00:00
登录|注册

开启黑箱:可解释机器学习的构建

你好,我是王天一。
2012 年,深度学习领域的泰斗级人物 Geoffrey Hinton 和他的学生 Alex Krizhevsky 设计出的 AlexNet,在当年的 ImageNet 大规模视觉识别挑战赛上一举夺魁。自此,深度学习走入了大众视野,各种新型的深度神经网络也如雨后春笋一般脱颖而出,不断提升着图像识别、自然语言处理、机器翻译等任务的性能,逐渐成为人工智能的代表性技术。
然而,即使深度学习在性能上已经不断走向极致,其在原理上仍然存在着一个严重的缺陷,那就是可解释性的欠缺。尽管深度学习能够取得接近 100% 的识别精度,但我们对其工作原理的理解仅限于它的层次化特点,即深度网络的较低层次提取出的是目标的基础特征,这些基础特征会在较高层次组合成更加复杂的特征,这一过程在深度神经网络中不断递进,从而形成分类的依据。
但在具有几百甚至上千层的深度网络中,每个层次到底提取出的是什么级别的特征,每一个神经元又对提取出的特征有什么样的贡献,目前研究者们对这些原理性的问题依然一头雾水。由于无法解释做出预测的依据,深度神经网络被认为是典型的黑盒模型,这也给深度学习在医疗诊断、法律判断和自动驾驶等错误代价很高的场景下的应用提出了不小的挑战。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
  • 解释
  • 总结

1. 深度学习在性能上已经不断走向极致,但其在原理上仍然存在着一个严重的缺陷,即可解释性的欠缺。 2. 构建可解释机器学习(eXplainable Machine Learning)成为人工智能研究的热点之一,旨在不仅对机器学习能够“知其然”,还能够“知其所以然”。 3. 模型的可解释性和复杂性呈负相关的关系,越复杂的模型,如深度神经网络,其可解释性就越差。 4. 事前可解释性方法指模型本身天然具备可解释性,无需额外的信息,只根据模型结构就可以理解模型的决策过程或决策依据。 5. 事后可解释性方法的对象是给定的训练好的学习模型,旨在构建学习模型的工作机制和决策依据。 6. 全局可解释性旨在从整体上理解模型背后的复杂逻辑以及内部的工作机制,如模型是如何学习的、学到了什么、如何实现决策等问题。 7. 局部可解释性则旨在理解学习模型针对每个特定输入样本的决策过程和决策依据,这意味着以数据为导向,计算输入样本的每一维特征对最终决策结果的贡献。 8. 模型蒸馏是一种全局解释方法,通过利用结构紧凑的学生模型来模拟结构复杂的教师模型,实现对教师模型的“蒸馏”。 9. 局部解释方法包括LIME和类激活映射,用于捕获模型的局部特征和识别输入图像中的重要区域。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《机器学习 40 讲》
新⼈⾸单¥59
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部