机器学习40讲
王天一
工学博士,副教授
立即订阅
8040 人已学习
课程目录
已完结 44 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (1讲)
开篇词 | 打通修炼机器学习的任督二脉
免费
机器学习概观 (10讲)
01 | 频率视角下的机器学习
02 | 贝叶斯视角下的机器学习
03 | 学什么与怎么学
04 | 计算学习理论
05 | 模型的分类方式
06 | 模型的设计准则
07 | 模型的验证方法
08 | 模型的评估指标
09 | 实验设计
10 | 特征预处理
统计机器学习模型 (18讲)
11 | 基础线性回归:一元与多元
12 | 正则化处理:收缩方法与边际化
13 | 线性降维:主成分的使用
14 | 非线性降维:流形学习
15 | 从回归到分类:联系函数与降维
16 | 建模非正态分布:广义线性模型
17 | 几何角度看分类:支持向量机
18 | 从全局到局部:核技巧
19 | 非参数化的局部模型:K近邻
20 | 基于距离的学习:聚类与度量学习
21 | 基函数扩展:属性的非线性化
22 | 自适应的基函数:神经网络
23 | 层次化的神经网络:深度学习
24 | 深度编解码:表示学习
25 | 基于特征的区域划分:树模型
26 | 集成化处理:Boosting与Bagging
27 | 万能模型:梯度提升与随机森林
总结课 | 机器学习的模型体系
概率图模型 (14讲)
28 | 最简单的概率图:朴素贝叶斯
29 | 有向图模型:贝叶斯网络
30 | 无向图模型:马尔可夫随机场
31 | 建模连续分布:高斯网络
32 | 从有限到无限:高斯过程
33 | 序列化建模:隐马尔可夫模型
34 | 连续序列化模型:线性动态系统
35 | 精确推断:变量消除及其拓展
36 | 确定近似推断:变分贝叶斯
37 | 随机近似推断:MCMC
38 | 完备数据下的参数学习:有向图与无向图
39 | 隐变量下的参数学习:EM方法与混合模型
40 | 结构学习:基于约束与基于评分
总结课 | 贝叶斯学习的模型体系
结束语 (1讲)
结课 | 终有一天,你将为今天的付出骄傲
机器学习40讲
登录|注册

16 | 建模非正态分布:广义线性模型

王天一 2018-07-10
直观来看,上一篇文章介绍的逻辑回归只是对普通线性回归的输出加以变换,以满足问题的需要。但在这简单的现象背后,以逻辑回归为代表的这类线性模型的推广具有更加深刻的数学内涵,因而被称为广义线性模型(generalized linear model)。
线性模型的意义是建立了自变量和因变量的关联,当自变量变化时,因变量也会出现依照比例同等程度的变化。可是现实世界不是数学模型,如果硬要将线性模型套用在实际问题中,很可能会闹出笑话。
如果线性回归告诉你气温每下降 1 度,海滩上的游客就会减少 100 人,那么这条规律适用于科帕卡巴纳或者芭堤雅的问题不大,因为这些著名的度假胜地的游客基数数以万计。可是对于一个最多只能接待 80 名游客的不知名小海滩来说,气温下降 1 度意味着游客数目变成了 -20,难不成工作人员也被冻跑了吗?这和不能听相声是一个道理:“笑一笑十年少”也是个线性模型,要是这个模型属实的话,哪怕只听一分钟相声我都要回到娘胎里去了。
物理学中有个概念叫半衰期,不严格地说,它指的是放射性元素的原子核半数发生衰变所需要的时间。元素的半衰期和原子的总量无关,100 个原子中衰变 50 个的时间和剩下的 50 个原子中衰变 25 个的时间是一致的。和线性模型相比,以半衰期为代表的建模方式似乎更加符合真实世界的规律:因变量变化的绝对尺度通常是非线性的,但其变化比率却会和自变量呈现线性关系。
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《机器学习40讲》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(5)

  • TomZ,张锐
    我来帮老师回答一下:
    如果想做多项式,是支持的,在preprocess有polynomial。就是把自变量(向量)中某一项变成高次。
    但如果我们把x平方视为X代入式子,其实这还是线性回归。并没有实质性变化。
    想想房子的例子,房子面积和体积。

    作者回复: 谢谢你的回答,这样的模型仍然是线性模型,只是对基函数做了处理。

    2018-07-12
    3
  • 我心飞扬
    请问85.7是怎么来的?

    作者回复: 原始的0.75相当于两个概率之比,也就是几率是0.75:0.25=3:1。将几率提高一倍到6:1,对应的概率就是6/7=0.8571。

    2018-07-20
    2
  • 我心飞扬
    为什么误差是整正态,因变量也是正态

    作者回复: 因为因变量是自变量线性组合和误差的叠加,一旦线性系数确定,线性组合的结果就是个常数,因变量的概率也就取决于噪声的概率。

    2018-07-20
  • 林彦
    一般线性模型中的因变量必须是连续分布的,回归结果的误差服从正态分布,联系函数是因变量本身。而广义线性模型中的因变量可以是非连续分布,回归结果的误差如文中所述可以是非正态分布,联系函数可以是自变量线性组合的函数。

    我的理解是一般线性模型除了上面的限制外,一般线性模型的目的是描述两个或更多预测变量与连续响应变量之间的统计关系,预测变量可以为因子和协变量,从统计软件的角度看,可以用到各种方差分析和线性回归分析来发现变量之间的关系。对于统计学还不熟悉,一般线性模型具体是如何使用不是太明白。

    作者回复: 你说的没错,一般线性模型实际上就是多元回归,可以和各种方差分析一起来使用。如果要建模离散变量或者非高斯噪声的话,还是得借助广义模型。

    2018-07-15
  • never_giveup
    老师你好,问个问题,线性模型只能学习线性关系吗?对于非线性相关的自变量和因变量,能通过多项式来拟合吗?如果能,多项式该怎么构造?对于回归问题除了常见的线性回归模型之外,还有其他模型能用吗?学习当中想到这些问题,希望老师能解答下我的疑惑,感激不尽。

    作者回复: 线性回归只能学习线性关系,引入非线性元素就可以学习非线性了,我们这个专栏的整体思路就是围绕线性回归不同方式的推广展开。
    引入非线性的方式既可以是联系函数,也可以是基扩展,你说的多项式回归就是基扩展的具体实现,构造时最主要的任务就是确定多项式阶数,这个超参数一般要通过交叉验证确定最优值。
    其他回归模型有一些,但专栏里不能面面俱到全部介绍,你可以根据专栏的思路去查阅不同的回归方法,以及衍生出的分类方法。

    2018-07-10
收起评论
5
返回
顶部