机器学习 40 讲
王天一
工学博士,副教授
35375 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已完结/共 46 讲
机器学习 40 讲
15
15
1.0x
00:00/00:00
登录|注册

06 | 模型的设计准则

模型的复杂度越低,其偏差也就越高;模型的复杂度越高,其方差也就越高
理想的模型应该是低偏差低方差的双低模型
模型的误差包括偏差、方差和噪声
模型过于复杂,捕捉了数据中的噪声
模型过于简单,无法捕捉数据背后的模式
在性能相同的情况下,应该选取更加简单的模型
模型的选取要以问题的特点为根据
任何模型在所有问题上的性能都是相同的
利用测试数据集来估计筛选出的模型在未知数据上的真实性能
利用验证数据集对模型的超参数进行调整,筛选出性能最好的模型
利用训练数据集对模型的普通参数进行拟合
偏差-方差分解
过拟合
欠拟合
奥卡姆剃刀原则
无免费午餐定理
模型评价
模型选择
模型拟合
机器学习模型的设计准则

该思维导图由 AI 生成,仅供参考

上学时你一定过学习新知识的经历:首先要结合老师的讲解进行消化理解,接着要做些练习题找到问题并加强巩固,最后通过考试来检验学习的最终效果。机器学习需要根据问题特点和已有数据确定具有最强解释性或预测力的模型,其过程也可以划分为类似于“学习 - 练习 - 考试”这样的三个阶段,每个阶段的目标和使用的资源可以归纳如下:
模型拟合(model fitting):利用训练数据集(training set)对模型的普通参数进行拟合;
模型选择(model selection):利用验证数据集(validation set)对模型的超参数进行调整,筛选出性能最好的模型;
模型评价(model assessment):利用测试数据集(test set)来估计筛选出的模型在未知数据上的真实性能。
接下来的三篇文章将分别围绕模型处理这三个阶段展开论述,首先将从模型拟合开始。
虽然模型拟合的任务是计算未知的参数,但它还要解决一个更重要的问题,就是在拟合参数前确定模型的形式,或者说到底要拟合哪些参数。模型拟合本身只是简单的数学问题,交给计算机就可以万事大吉,可模型设计却颇有门道,涉及到更多的思考:一方面,模型的合理性很大程度上取决于待解决问题本身的特征;另一方面,模型的复杂度也要和问题的复杂度相匹配。在机器学习中,对这两个基本准则的理解催生了两个基本的规律,分别是无免费午餐定理奥卡姆剃刀原则
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

本文深入探讨了机器学习模型设计的基本准则,从模型拟合、选择和评价三个阶段出发,阐述了无免费午餐定理和奥卡姆剃刀原则的重要性。文章强调了模型性能与问题特点的紧密关联,提出了具体问题具体分析的先验知识的使用原则。此外,从模型复杂度与拟合精度的关系、误差的组成等角度探讨了模型的复杂度对机器学习的影响。作者通过深入浅出的方式,为读者提供了有益的技术指导。总的来说,本文强调了在设计机器学习模型时需要考虑的共性问题,包括模型选择的依据、简单模型的优势、以及欠拟合和过拟合对模型性能的影响。在实际应用中,欠拟合和过拟合很难同时被抑制,因此需要权衡取舍。读者在阅读本文后将能够更好地理解机器学习模型设计的基本原则,以及如何在实际应用中处理欠拟合和过拟合的问题。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《机器学习 40 讲》
新⼈⾸单¥59
立即购买
登录 后留言

全部留言(12)

  • 最新
  • 精选
  • 林彦
    开始模型的误差比较大,也就是偏差较大,需要先解决欠拟合的问题。数据量不够大的情况下,容易产生过拟合,这时就要考虑降低方差,减小过拟合。从训练的步骤看,欠拟合需要先解决。

    作者回复: 赞同,私以为欠拟合的危害更大

    2018-06-16
    10
  • 吹胡子爷爷
    老师,我看这个有点费劲,有没有先修课推荐?看来我得去复习复习…不对,是重新学习学习

    作者回复: 可以参考前面的基础课专栏哈,后面我会在总结文章里推几本参考书,有些有中译,可以读一读。不需要急于求成,看一点懂一点就是收获。

    2018-07-30
    5
  • hanlimo
    应该还是先欠拟合吧,业务先跑起来首先要保证不“丢”数据,过拟合的问题可以随着业务的深入逐步完善。

    作者回复: 赞同

    2018-09-17
    3
  • Genesis 🌟
    王老师您好老师,我是一名开学研一的学生,导师让掌握深度学习,请问王老师以后会开这方面的课程吗 或者老师有什么推荐的资源适合初学者看一下

    作者回复: 了解深度学习可以先看看Bengio的Learning deep architecture for AI了解下思想,再读深度学习那本大书,oreilly的fundamentals of deep learning也可以看看。还有就是论文了。

    2018-06-17
    1
  • 袁明泉
    Bagging可以降低variance,boosting可以降低bias。有没有可能把两个方法同时用,同时降低bias和variance呢?

    作者回复: Boosting之后得到较好的模型后,再做bagging就不会有什么提升了,好事成双终归是可遇不可求。

    2018-06-16
    1
  • King5
    模型拟合适合非数字类的吗,数字类的都可以用传统的计算方法,感觉没必要套上机器学习的外套

    作者回复: 非数字类最终也要转成数字类,要不然没法度量。

    2018-07-23
  • 你不是我
    内容很精简,但是在吃下这些知识后,又不知道具体如何实现。老师可不可以在文章中,添加一些操作案例,加以解释,让知识和实际有一个很好的切入点。

    作者回复: 在后面介绍不同模型时会有相应的toy example。

    2018-07-05
  • 建强
    思考题: 模型训练首先要控制欠拟合,因为欠拟合意味着模型过于简单,在训练数据集中可能存在着较大的偏差,即模型本身还未达标,不达标的模型在测试集中的偏差就更大了,即模型根本无法使用;而过拟合意味着模型过于精细,对训练集中的非主流数据(噪声)也进行了拟合,虽然在训练集中可以打满分,但在测试集中效果可能与期望的效果大相径庭,即过拟合的模型只能用于训练集中,但相比之下,欠拟合的模型危害更大,这就好比在一个桶里装水,既要把水装满,又不能使水溢出,那么,首先是水要装满,然后再控制溢出,如果连水都装不满,又何来溢出,所以模型训练首先是控制欠拟合。 以上是我个人的一点肤浅理解,请老师指正。
    2020-11-08
    4
  • ifelse
    学习打卡
    2023-05-28归属地:浙江
  • 杨家荣
    极客时间 21天打卡行动 44/21 <<机器学习40讲/06>>模型的设计准则 回答老师问题: 在实际应用中,欠拟合和过拟合是不太可能同时被抑制的,现实的考量是“两害相权取其轻”。那么你认为是应该优先控制欠拟合还是过拟合呢? 机器开始的控制欠拟合,在数据量开始加大的时候,再抑制过拟合; 今日所学: 1,机器学习具有最强解释性或预测力的模型三个阶段:模型拟合,模型选择,模型评价 2,无免费午餐NFL 定理:每种问题出现的概率是均等的,每个模型用于解决所有问题时,其平均意义上的性能是一样的。 3,NFL 定理最重要的指导意义在于先验知识的使用,也就是具体问题具体分析; 4,脱离问题的实际情况谈论模型优劣是没有意义的,只有让模型的特点和问题的特征相匹配,模型才能发挥最大的作用。 5,奥卡姆剃刀:在结果大致相同的情况下,模型就越简单越好。 6,在科学方法中,奥卡姆剃刀对简单性的偏好并非逻辑上不可辩驳的金科玉律,它更多的是基于可证伪性的标准; 7,本质上说,奥卡姆剃刀的关注点是模型复杂度; 8,模型的误差包括三个部分:偏差(bias),方差(variance)和噪声(noise)。 9,噪声也叫作不可约误差(irreducible error); 10,模型的复杂度越低,其偏差也就越高;模型的复杂度越高,其方差也就越高。 重点: 无免费午餐定理说明模型的选取要以问题的特点为根据; 奥卡姆剃刀说明在性能相同的情况下,应该选取更加简单的模型; 过于简单的模型会导致欠拟合,过于复杂的模型会导致过拟合; 从误差分解的角度看,欠拟合模型的偏差较大,过拟合模型的方差较大。
    2020-01-31
收起评论
显示
设置
留言
12
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部