作者回复: 体现在通过残差拟合的手段将多个弱学习器组合成强学习器,降低偏差和方差。
两个的作用域不同。梯度下降是针对单个模型的参数优化,找到最优的一组参数;梯度提升是用多个模型的组合来逼近问题的解,每个模型其实都是一个函数。
作者回复: 机器学习的目的其实就是确定哪些特征对输出的影响更大,也就是具有更大的权重,这在线性模型里体现的最为直观。增加权重说明你已经认定这些特征更重要,那就不需要再训练了。
如果非要做的话,在线性模型中可以给属性额外乘以一个放大系数,在决策树里可以放大属性的信息增益,在随机森林里可以给每棵树都选定这个属性。使用的模型不同,方法也不一样。
作者回复: 两种都是比较通用的方法,在具体问题上可以择优使用,看看哪个效果好。
作者回复: 输入LR的特征维度是所有树的叶子节点的组合,也就是14个特征。树的作用是onehot编码,把实值的特征向量变成二值类别向量。文中的解释是这样的转化本质上是定义了一组规则,线性模型是在给每一棵树里的每个叶子节点所表示的规则生成权重。
作者回复: 这篇论文的题目是什么?