• 林彦
    2018-07-04
    PCA和ICA都是把原始特征线性组合转换成新的不相关的特征,PCA里转换后的特征是正交的。网上搜索到的ICA会在数据白化预处理(data whitening)用到PCA,我的理解ICA转换产生的特征也是正交的。

    PCA和LDA都是以观测数据点呈高斯分布为假设前提,而ICA假设观测信号是非高斯分布的信号源的线性组合,信号源分量都不是高斯分布或者最多只有一个是高斯分布。

    ICA生成的新特征分量不仅是不相关的,而且要求是统计独立的。我的理解是这个要求比PCA的不相关或正交要求更高,包含更多信息。PCA的数据有可能不是由一些互相统计独立的特征分量生成的。如何区别ICA中的统计独立和PCA中的不相关/正交我不懂。有文章提到在原始随机信号x是高斯随机向量,其PCA变换得到的y也是高斯随机向量,y的各个分量不仅是线性无关的,它们还是独立的。这段描述令我对线性无关和独立的区别更加困惑。

    PCA选择新特征时用方差作为衡量标准,ICA根据网上部分描述会用到“非高斯性度量“来作为衡量标准。这里是不是衡量标准一定会有区别我不确定。
    展开

    作者回复: ICA是盲源分离的一种手段,它假设接收到的数据来源于统计独立的不同分量的线性叠加,所以它的独立性是解决问题的前提。典型的例子是鸡尾酒会问题:酒会上人声嘈杂,不同的声音混在一起,ICA就要实现解混,分解出每个人的声音。
    统计独立的概念要强于不相关。不相关只需要协方差为0,统计独立则要求联合分布等于各自分布的乘积。所以在评价ICA时,指标的核心在于不同成分之间是不是真的独立,方差这些则不在关注范围。
    之所以关注非高斯性是由于中心极限定理说明了大量随机独立分布的叠加是高斯分布。独立成分的非高斯性可以保证分离结果的可辨识性。从机器学习角度看,ICA应该属于一种隐变量模型。

    
     3
  • Geek_59
    2020-02-07
    极客时间
    21天打卡行动 51/21
    <<机器学习40讲/13>> 线性降维:主成分的使用
    回答老师问题
    在机器学习中,还有一种和主成分分析名字相似的方法,叫作独立成分分析(independent component analysis)。那么这两者之间到底有什么区别和联系呢?
    1. 主成分分析假设源信号间彼此非相关,独立成分分析假设源信号间彼此独立。
    2. 主成分分析认为主元之间彼此正交,样本呈高斯分布;独立成分分析则不要求样本呈高斯分布。
    来源:[https://blog.csdn.net/shenziheng1/article/details/53547401]
    今日所学:
    1,维数灾难深层次的原因在于数据样本的有限。
    2,特征选择(feature selection);
    3,岭回归收缩系数的对象并非每个单独的属性,而是由属性的线性组合计算出来的互不相关的主成分,主成分上数据的方差越小,其系数收缩地就越明显。
    4,主成分回归;
    5,主成分分析是典型的特征提取方法,它和收缩方法的本质区别在于将原始的共线性特征转化为人为生成的正交特征,从而带来了数据维度的约简和数据压缩的可能性;
    6,主成分分析可以看成对高斯隐变量的概率描述,
    7,隐变量(latent variable)是不能直接观测但可以间接推断的变量;
    8,概率主成分分析(probabilistic principal component analysis)体现的就是高斯型观测结果和高斯隐变量之间线性的相关关系,它是因子分析(factor analysis)的一个特例;
    重点:
    降维方法和特征提取技术要点:
     在有限的数据集下,数据维度过高会导致维数灾难;
    降维的方法包括特征选择和特征提取;
    主成分分析将原始的共线性特征转化为新的正交特征,从而实现特征提取;
    概率主成分分析是因子分析的一种,是数据的生成模型。
    展开
    
    
  • Howard.Wundt
    2018-10-03
    老师的文章排版非常优美,值得学习。
    目前极客时间导出到印象笔记时,版面会发生变化,公式与文字之间错位严重,各位同学有何好办法处理之?
    
    
  • zhoujie
    2018-09-10
    收缩方法可以使系数连续变化,这里“连续变化”怎么理解,收缩方法可以使系数缩小或者带来稀疏可以理解

    作者回复: 意思是不会从1跳变到0,而是按1 0.9 0.8 0.7这样地变化

    
    
  • paradox
    2018-08-10
    老师,您好
    对于用SVD解释PCA
    是不是
    行数表示特征数,列数表示数据样本的个数,这样SVD后,就是U矩阵用作降维了。
    如果是行数表示数据样本的个数,列数表示特征数,SVD后,就是V矩阵用作降维了。

    作者回复: 一般都是你说的后一种情况,就是把同一个数据写成矩阵的一个行,很少有写成列的。像sklearn这些成熟的库也是这样处理。

    
    
  • 兆熊
    2018-07-03
    和第一季相比,第二季每篇文章的篇幅长了很多。建议老师将长文章一分为二,将每篇文章的语音控制在十分钟左右,以达到更好的学习效果。

    作者回复: 这个我和极客时间的团队反映一下。

    
    
我们在线,来聊聊吧