• 林彦
    2018-07-09
    当不同分类样本的协方差矩阵相同时,使用线性判别分析;当不同分类样本的协方差矩阵不同时,则应该使用二次判别分析(Quadratic Discriminant Analysis)。LDA适合均值不同,方差相同的高斯分布,其决策边界是一个平面。QDA适合均值不同,方差也不同的高斯分布。在协方差矩阵相同时,LDA和QDA没有分类结果差异。在不同的协方差矩阵下,LDA和QDA的决策边界存在明显差异。

    作者回复: 是的,QDA去掉了对方差相同的限制,这样计算出的似然比,也就是概率密度的比值就不是直线了。

    
     3
  • Geek_59
    2020-02-09
    极客时间
    21天打卡行动 53/21
    <<机器学习40讲/15>> 从回归到分类:联系函数与降维
    今日所学
    1,将回归结果转化为分类结果:一种是直接用阈值区分回归结果,另一种是用似然度区分回归结果;
    2,硬输出是对数据的分类边界进行建模。实现硬输出的函数,也就是将输入数据映射为输出类别的函数叫作判别函数(discriminant),
    3,输出利用的是似然度,需要建立关于数据的概率密度的模型,常见的具体做法是对线性回归的结果施加某种变换,
    4,好的分类算法既要让相同类别的数据足够接近,又要让不同类别的数据足够远离,
    5,线性判别分析需要较强的假设来支持。
    重点
    在解决分类问题时,线性模型的回归值可以通过联系函数转化为分类结果;
    线性判别分析假定数据来自均值不同但方差相同的正态分布,通过最大化类间方差与类内方差的比值计算线性边界;
    逻辑回归计算的是不同类别的概率决策边界,输出的是给定数据属于不同类别的后验概率;
    基于线性模型的分类方法计算出的决策边界是输入属性的线性函数。
    展开
    
    
  • Python
    2019-01-22
    老师,逻辑回归只适用于带标签的数据的分类任务吗

    作者回复: 是,这是监督学习的分类算法,虽然名字叫“回归”,却不是真回归。

    
    
  • Python
    2019-01-22
    x_min,x_max = shots.min() - 0.2,shots.max() +0.2
    y_min, y_max = tackles.min() - 0.2, tackles.max() + 0.2

    老师为什么要用最小值减去0.2,和最大值加0.2

    作者回复: 把画图的坐标轴范围稍微扩大一点,让所有点都处在图内部。

    
    
  • 夏震华(围巾)
    2018-10-08
    LDA、QDA :http://www.mamicode.com/info-detail-1819236.html这个比较直观,容易理解

    作者回复: 感谢分享

    
    
  • paradox
    2018-08-11
    老师,您好
    文中
    说LR与LDA是以每个输出类别为单位,将每个类别的数据看作不同的整体,并寻找它们之间的分野。
    如何理解呢?

    作者回复: 指的是两种模型在分类时利用的都是类别数据整体的统计特性,相比之下,支持向量机使用的支持向量就是每个类别中若干个具有代表性的特例。

    
    
  • 鱼大
    2018-07-10
    干货
    
    
我们在线,来聊聊吧