作者回复: 写得很到位
作者回复: 你可以这么理解,协方差特征向量,告诉你了哪些特征是强相关的,并把这些强相关的特征捆绑在一起,组成一个新的维度达到降维的效果。所以原始数据左乘这个特征向量就是为了达到把若干强相关的原始特征值捆绑在一起,生成一个新的特征值,最终达到降维的目的。一个矩阵乘以自己的特征向量并不一定能达到降维的效果。
作者回复: 很好的总结👍
作者回复: 只要是数值型,如果是离散的也是可以的。如果不是数值型,要看看能否转换成数值型,以及转成数值型之后大小变化是否还有意义。
作者回复: 理解的没错
作者回复: 这个原文没有说清楚,PCA本身是不要求标准化的,不过机器学习的特征一般都会进行标准化,便于比较不同变量的重要性
作者回复: 很高兴对你有价值
作者回复: 很高兴对你有帮助
作者回复: 是的,主要的思想就是如此
作者回复: 理论上来说确实如此,我们可以通过代码来比较一下结果。