作者回复: ICA是盲源分离的一种手段,它假设接收到的数据来源于统计独立的不同分量的线性叠加,所以它的独立性是解决问题的前提。典型的例子是鸡尾酒会问题:酒会上人声嘈杂,不同的声音混在一起,ICA就要实现解混,分解出每个人的声音。
统计独立的概念要强于不相关。不相关只需要协方差为0,统计独立则要求联合分布等于各自分布的乘积。所以在评价ICA时,指标的核心在于不同成分之间是不是真的独立,方差这些则不在关注范围。
之所以关注非高斯性是由于中心极限定理说明了大量随机独立分布的叠加是高斯分布。独立成分的非高斯性可以保证分离结果的可辨识性。从机器学习角度看,ICA应该属于一种隐变量模型。
作者回复: 意思是不会从1跳变到0,而是按1 0.9 0.8 0.7这样地变化
作者回复: 一般都是你说的后一种情况,就是把同一个数据写成矩阵的一个行,很少有写成列的。像sklearn这些成熟的库也是这样处理。
作者回复: 这个我和极客时间的团队反映一下。