063 | 基于隐变量的模型之三:分解机
洪亮劼
该思维导图由 AI 生成,仅供参考
周三我们分享了“基于回归的隐变量模型”,这是在基本的矩阵分解基础上衍生出来的一类模型。这种模型把显式特性和隐变量结合起来,对解决“冷启动”问题有一定作用。
今天,我们来介绍一种叫作“分解机”(Factorization Machines)的推荐技术。这个模型是从基于回归的隐变量模型中衍生出来的,已成为了主流的推荐模型。
矩阵分解和基于回归的隐变量模型存在哪些问题?
在介绍分解机的基本原理之前,我们先来回顾一下从“矩阵分解”到“基于回归的隐变量模型”的一个发展脉络。
首先,矩阵分解主要解决了两个问题,那就是从一个大矩阵降维到两个小矩阵,并且寄希望这两个小矩阵能够抓住用户和物品的相关度。
然而,单纯的矩阵分解无法融入很多用户和物品的特性,这就引导我们开发出了基于回归的矩阵分解。所谓的回归部分,也就是从显式特性出发,建立从显式特性到隐变量之间关系的流程,从而使我们能够把更多的信号放进模型中。
在一定程度上,基于回归的隐变量模型实现了把显式变量和隐变量结合的目的,但是这类模型的学习过程非常麻烦。实际上,因为这类模型复杂的训练流程,其在实际应用中并不常见。
那么,有没有其他思路来统一显式变量和隐变量的处理方式呢?
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
“分解机”是一种基于隐变量的推荐技术,通过结合“基于内容的推荐系统”和“基于回归的隐变量模型”的思想,解决了矩阵分解和基于回归的隐变量模型存在的问题。相比于传统模型,分解机的输入是所有的显式变量,它不仅直接对显式变量进行建模,还对显示变量的两两关系进行建模。这种两两配对的特征可以有效地抓取到特性之间的交互信息,但也会导致特性空间急速增长和稀疏矩阵问题。为了解决这些问题,分解机利用了矩阵分解的降维思路,将显式特性的乘积分解为隐变量的点积,成功地将隐变量和显式变量结合到了一起。在实际应用中,分解机的训练过程大大简化,常使用“随机梯度下降”进行求解。由于其简单易用的特点,分解机在Kaggle比赛和一些工业级应用中成为了核心算法。总的来说,分解机通过巧妙地结合显式变量和隐变量,解决了传统模型的一些问题,成为了主流的推荐模型之一。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》,新⼈⾸单¥98
《AI 技术内参》,新⼈⾸单¥98
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
全部留言(3)
- 最新
- 精选
- 韩 * *脉络和思路才是这个专栏最大的价值,真的很棒2019-08-044
- 林彦分解机能比传统的方法更好地解决“冷启动”的问题。分解机是基于显式变量两两配对来建模,我的理解是只要对应的2个显式变量在所有的数据集合中能计算出值即可。如果某个物品或某个用户的评分是缺失的,我们可以用显式变量的整体分布,如文中的例子的某个年龄段和某类商品的显式特性来计算。2018-03-123
- Wesley矩阵分解可以无需负样本就能训练. 分解机是否一定需要负样本来训练?2019-02-271
收起评论