机器学习40讲
王天一
工学博士,副教授
立即订阅
8038 人已学习
课程目录
已完结 44 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (1讲)
开篇词 | 打通修炼机器学习的任督二脉
免费
机器学习概观 (10讲)
01 | 频率视角下的机器学习
02 | 贝叶斯视角下的机器学习
03 | 学什么与怎么学
04 | 计算学习理论
05 | 模型的分类方式
06 | 模型的设计准则
07 | 模型的验证方法
08 | 模型的评估指标
09 | 实验设计
10 | 特征预处理
统计机器学习模型 (18讲)
11 | 基础线性回归:一元与多元
12 | 正则化处理:收缩方法与边际化
13 | 线性降维:主成分的使用
14 | 非线性降维:流形学习
15 | 从回归到分类:联系函数与降维
16 | 建模非正态分布:广义线性模型
17 | 几何角度看分类:支持向量机
18 | 从全局到局部:核技巧
19 | 非参数化的局部模型:K近邻
20 | 基于距离的学习:聚类与度量学习
21 | 基函数扩展:属性的非线性化
22 | 自适应的基函数:神经网络
23 | 层次化的神经网络:深度学习
24 | 深度编解码:表示学习
25 | 基于特征的区域划分:树模型
26 | 集成化处理:Boosting与Bagging
27 | 万能模型:梯度提升与随机森林
总结课 | 机器学习的模型体系
概率图模型 (14讲)
28 | 最简单的概率图:朴素贝叶斯
29 | 有向图模型:贝叶斯网络
30 | 无向图模型:马尔可夫随机场
31 | 建模连续分布:高斯网络
32 | 从有限到无限:高斯过程
33 | 序列化建模:隐马尔可夫模型
34 | 连续序列化模型:线性动态系统
35 | 精确推断:变量消除及其拓展
36 | 确定近似推断:变分贝叶斯
37 | 随机近似推断:MCMC
38 | 完备数据下的参数学习:有向图与无向图
39 | 隐变量下的参数学习:EM方法与混合模型
40 | 结构学习:基于约束与基于评分
总结课 | 贝叶斯学习的模型体系
结束语 (1讲)
结课 | 终有一天,你将为今天的付出骄傲
机器学习40讲
登录|注册

15 | 从回归到分类:联系函数与降维

王天一 2018-07-07
线性模型最初被用来解决回归问题(regression),可在实际应用中,更加普遍的是分类问题(classification)。要用线性模型解决分类问题的话,就需要将线性模型原始的连续输出转换成不同的类别。
在分类问题中,一种特殊的情况是类别非黑即白,只有两种,这样的问题就是二分类问题,它可以看成是多分类问题的一个特例,也是今天讨论的对象。
将回归结果转化为分类结果,其实就是将属性的线性组合转化成分类的标准,具体的操作方式有两种:一种是直接用阈值区分回归结果,根据回归值与阈值的关系直接输出样本类别的标签;另一种是用似然度区分回归结果,根据回归值和似然性的关系输出样本属于某个类别的概率。
这两类输出可以分别被视为硬输出软输出,它们代表了解决分类问题不同的思路。
硬输出是对数据的分类边界进行建模。实现硬输出的函数,也就是将输入数据映射为输出类别的函数叫作判别函数(discriminant)。判别函数可以将数据空间划分成若干个决策区域,每个区域对应一个输出的类别。不同判别区域之间的分界叫作决策边界(decision boundary),对应着判别函数取得某个常数时所对应的图形。用线性模型解决分类问题,就意味着得到的决策边界具有线性的形状。
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《机器学习40讲》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(6)

  • 林彦
    当不同分类样本的协方差矩阵相同时,使用线性判别分析;当不同分类样本的协方差矩阵不同时,则应该使用二次判别分析(Quadratic Discriminant Analysis)。LDA适合均值不同,方差相同的高斯分布,其决策边界是一个平面。QDA适合均值不同,方差也不同的高斯分布。在协方差矩阵相同时,LDA和QDA没有分类结果差异。在不同的协方差矩阵下,LDA和QDA的决策边界存在明显差异。

    作者回复: 是的,QDA去掉了对方差相同的限制,这样计算出的似然比,也就是概率密度的比值就不是直线了。

    2018-07-09
    3
  • Python
    老师,逻辑回归只适用于带标签的数据的分类任务吗

    作者回复: 是,这是监督学习的分类算法,虽然名字叫“回归”,却不是真回归。

    2019-01-22
  • Python
    x_min,x_max = shots.min() - 0.2,shots.max() +0.2
    y_min, y_max = tackles.min() - 0.2, tackles.max() + 0.2

    老师为什么要用最小值减去0.2,和最大值加0.2

    作者回复: 把画图的坐标轴范围稍微扩大一点,让所有点都处在图内部。

    2019-01-22
  • 夏震华(围巾)
    LDA、QDA :http://www.mamicode.com/info-detail-1819236.html这个比较直观,容易理解

    作者回复: 感谢分享

    2018-10-08
  • paradox
    老师,您好
    文中
    说LR与LDA是以每个输出类别为单位,将每个类别的数据看作不同的整体,并寻找它们之间的分野。
    如何理解呢?

    作者回复: 指的是两种模型在分类时利用的都是类别数据整体的统计特性,相比之下,支持向量机使用的支持向量就是每个类别中若干个具有代表性的特例。

    2018-08-11
  • 鱼大
    干货
    2018-07-10
收起评论
6
返回
顶部