人工智能基础课
王天一
工学博士,副教授
58937 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已完结/共 59 讲
开篇词 (1讲)
人工智能基础课
15
15
1.0x
00:00/00:00
登录|注册

24 深度学习 | 小树不修不直溜:深度学习中的正则化

早停
使用L2L ^ 2范数和L1L ^ 1范数
传递函数正则化
参数共享
Dropout
数据集增强
不同方式能够达到最好的抑制过拟合效果
正则化方法可以基于学习算法中的多个变量来实现
基于最优化过程的正则化
基于误差函数和正则化项的正则化
基于网络架构的正则化
基于训练数据的正则化
提升算法通用性
降低泛化误差
机器学习算法在训练集和测试数据上的性能
正则化作为抑制过拟合的手段
正则化方法的效果
正则化的种类
正则化的目的
正则化概述
深度学习中的正则化

该思维导图由 AI 生成,仅供参考

正则化(Regularization)作为抑制过拟合的手段,是机器学习和深度学习之中必不可少的环节,具有举足轻重的地位。好的机器学习算法不仅要在训练集上表现出色,当推广到未知的测试数据时,其优良的性能依然能够得以保持。正则化就是一类通过显式设计降低泛化误差,以提升算法通用性的策略的统称。由于深度学习中涉及的参数众多,正则化就变得尤为重要。
正则化被定义为对学习算法的修改,这些修改的目的在于减少泛化误差。通常说来,泛化误差的下降是以训练误差的上升为代价的,但有些算法也能兼顾泛化误差和训练误差的良好性能。
正则化处理可以看成是奥卡姆剃刀原则(Occam's razor)在学习算法上的应用。奥卡姆剃刀原则的表述是:“当两个假说具有完全相同的解释力和预测力时,以那个较为简单的假说作为讨论依据。”在机器学习中,正则化处理得到的正是更加简单的模型。
从概率论角度看,许多正则化技术对应的是在模型参数上施加一定的先验分布,其作用是改变泛化误差的结构。正则化是对欠拟合和过拟合的折中,在不过度增加偏差的情况下显著减少方差。正则化能够改变数据分布,让通过模型得到的数据分布尽可能和真实的数据生成过程相匹配。
虽然目前在深度学习中应用的正则化方式称得上“八仙过海,各显神通”,却并不存在能够系统描述这些方法、并进一步指导设计的通用主线。因此,要从通观全局的角度看待正则化处理,还是要“不忘初心”,从根本目的着眼。
机器学习的任务是拟合出一个从输入 到输出 的分布,拟合的过程是使期望风险函数最小化的过程。正则化处理使待最小化的函数中既包含结构化的误差函数,也包含人为引入的正则化项。由于未知分布的期望风险不能直接求解,因而需要引入训练数据集,以在训练数据集上计算出的经验风险来近似期望风险,并通过经验风险最小化实现期望风险最小化。
以上就是学习算法的整体流程,也是正则化大展拳脚的主战场,正则化的处理就是针对学习算法中的不同变量来展开的。这样看来,正则化策略就可以分为以下几类:
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

深度学习中的正则化是抑制过拟合的重要手段。本文介绍了正则化的概念及其在深度学习中的应用。正则化通过降低泛化误差来提升算法通用性,可以分为基于训练数据、网络架构、误差函数、正则化项和最优化过程的不同类型。数据集增强和Dropout是基于训练数据的正则化方法,而参数共享和传递函数的正则化则属于基于网络架构的处理。另外,权重衰减是一种常用的正则化项,通过引入$L^2$范数或$L^1$范数来约束权重系数,从而抑制过拟合。文章还强调了正则化的重要性,指出正则化能够改变数据分布,让模型得到的数据分布尽可能和真实的数据生成过程相匹配。总的来说,正则化在深度学习中扮演着重要的角色,有助于提升模型的泛化能力,保持优良的性能。文章还介绍了基于最优化过程的正则化方法,包括对初始化、参数更新和终止条件的正则化。早停是一种重要的正则化方法,能够有效抑制过拟合。文章提供了多种正则化方法的分类和实现思路,为深度学习领域的研究者提供了重要参考。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《人工智能基础课》
新⼈⾸单¥59
立即购买
登录 后留言

全部留言(7)

  • 最新
  • 精选
  • 李博越
    这压根不是基础课程,没基础的估计一点都看不懂
    2022-02-03
    7
  • 林彦
    最好的抑制过拟合的方法之一是增加训练数据集
    2018-02-01
    4
  • ifelse
    学习打卡
    2023-05-10归属地:浙江
    1
  • Geek_HanX2
    没有怎么看懂,呜呜
    2022-11-30归属地:湖南
    1
  • IT蜗壳-Tango
    打卡学习,还要很多没学完和消化完的内容。
    2020-11-08
    1
  • 杨家荣
    极客时间 21天打卡行动 22/21 <<人工智能基础课24>>深度学习中的正则化 今日所学理论比较多,也可能比较深入了; 回答老师问题: 既然正则化方法可以基于学习算法中的多个变量来实现,那么你觉得那种方式能够达到最好的抑制过拟合效果呢? 简单浏览了下网络上的各种总结抑制过拟合的策略,大概有如下几点: * 数据增强 * Early stopping * 增加噪声 * 简化网络结构 * Dropout * 贝叶斯方法 迁移学习会好些; [来源:https://www.jianshu.com/p/97aafe479fa1] 今日所学: 1,正则化(Regularization)作为抑制过拟合的手段,是机器学习和深度学习之中必不可少的环节,具有举足轻重的地位。好的机器学习算法不仅要在训练集上表现出色,当推广到未知的测试数据时,其优良的性能依然能够得以保持。正则化就是一类通过显式设计降低泛化误差,以提升算法通用性的策略的统称。由于深度学习中涉及的参数众多,正则化就变得尤为重要。 2,正则化被定义为对学习算法的修改,这些修改的目的在于减少泛化误差; 3,正则化处理可以看成是奥卡姆剃刀原则(Occam's razor)在学习算法上的应用。奥卡姆剃刀原则的表述是:“当两个假说具有完全相同的解释力和预测力时,以那个较为简单的假说作为讨论依据。”在机器学习中,正则化处理得到的正是更加简单的模型。 4,从概率论角度看,许多正则化技术对应的是在模型参数上施加一定的先验分布,其作用是改变泛化误差的结构。 5,正则化策略就可以分为以下几类:a,基于训练数据(data)的正则化,b,基于网络架构(network architecture)的正则化,c,基于误差函数(error function)的正则化,d,基于正则化项(the regularization term)的正则化,e,基于最优化过程(optimization)的正则化 6,对训练数据正则化的做法是在训练数据集上施加变换,从而产生新的训练数据集。变换的形式是以满足某种概率分布的随机变量为自变量的函数,最简单的实例就是向数据添加随机的高斯噪声。由于提升机器学习模型泛化性能最直接的办法就是使用更多的数据进行训练,因而使用随机参数的变换可以用于生成“假”数据,这种方法被称为数据集增强(data augmentation)。 7,另一种针对训练数据的正则化方法是 Dropout,Dropout 是一种集成方法,通过结合多个模型来降低泛化误差。之所以说 Dropout 属于基于训练数据的正则化,是因为它构造不同的数据集来训练不同的模型,每个数据集则通过对原始数据集进行“有放回采样”得到。 8,基于网络架构的正则化通常会简化关于映射的假设,再让网络架构逐步逼近简化后的映射。 9,参数共享(weight sharing)是一类重用参数的正则化方法; 10,另一种针对网络架构的处理是对传递函数的正则化(activation regularization); 11,正则化项也叫做惩罚项。与误差函数不同,正则化项与目标无关,而是用于表示所需模型的其他属性。误差函数表示的是算法输出与目标输出之间的一致性,正则化项表示的则是关于映射关系的额外的假设。 12,常用的正则化项是权重衰减项(weight decay)。深度学习中的参数包括每个神经元中的权重系数和偏置。由于每个权重会指定两个变量之间相互作用的方式,因而拟合权重所需要的数据量要比拟合偏置多得多。 13,最后一类正则化方法是基于最优化过程的正则化。根据其作用阶段的不同,这类正则化方法可以分为三种:对初始化(initialization)的正则化,对参数更新(weight update)的正则化,对终止条件(termination)的正则化。对初始化的正则化影响的是权重系数的最初选择,这既可以通过在特定的概率分布中选择初始参数完成,也可以经由预训练实现。对参数更新的正则化则包括对更新规则的改进和对权重参数的过滤; 14,早停的简单性和有效性使它成为深度学习中应用最广泛的正则化方法; 总结重点: 1,基于训练数据的正则化方法包括数据集增强和 Dropout; 2,基于网络架构的正则化方法包括参数共享和传递函数正则化; 3,基于误差函数和正则化项的正则化方法包括使用 L2 范数和 L1 范数; 4,基于最优化过程的正则化方法包括早停。
    2020-01-09
  • 林彦
    Dropout和L2范式正则化的效果经常也不错
    2018-02-01
收起评论
显示
设置
留言
7
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部