AI 技术内参
洪亮劼
Etsy 数据科学主管,前雅虎研究院资深科学家
33455 人已学习
新⼈⾸单¥98
登录后,你可以任选6讲全文学习
课程目录
已完结/共 166 讲
开篇词 (1讲)
人工智能国际顶级会议 (31讲)
搜索核心技术 (28讲)
推荐系统核心技术 (22讲)
数据科学家与数据科学团队养成 (25讲)
AI 技术内参
15
15
1.0x
00:00/00:00
登录|注册

062 | 基于隐变量的模型之二:基于回归的矩阵分解

正统学习过程
简单思路
处理“冷启动”问题
使用用户和物品的显式特性来回归隐向量
无法处理“冷启动”问题
仅对用户和物品的喜好进行编码
思考题
求解参数
详细介绍基于回归的矩阵分解
介绍问题
贝叶斯角度理解
学习方法
解决问题
核心思路
问题
基本表达
小结
基于回归的矩阵分解
矩阵分解
基于隐变量的模型之二:基于回归的矩阵分解

该思维导图由 AI 生成,仅供参考

本周我们主要来分享“矩阵分解”的点点滴滴,这是过去 10 年里推荐系统中最流行的一类模型。周一我们讨论了这类方法中最基础的基于隐变量的矩阵分解。这类模型的优势是显式地对用户和物品信息中的隐含结构进行建模,从而能够挖掘更加深层次的用户和物品关系。矩阵分解的流行起源于 10 年前的 Netflix 大赛,当时各类矩阵分解模型都在实际数据中起到了很好的效果。
今天我们要分享的模型,叫作“基于回归的隐变量模型”(Regression-based Latent Factor Model)。这是在基本矩阵分解的基础上衍生出来的一类模型。

基本矩阵分解的问题

我们先来看看基本矩阵分解模型的潜在问题。
首先,我们来回顾一下矩阵分解的基本表达。假设我们在对用户和物品的评分进行建模。对于每一个用户,用一个向量来表达其对于所有可能物品的评分,把所有用户的向量堆积起来,就可以得到一个矩阵。这个矩阵的每一行代表一个用户,每一列代表一个物品,每一个交叉的元素代表某一个用户对于某一个商品的评分。对于每一个用户和物品的隐向量都要少于原有的物品数目,因此,我们也说矩阵分解的模型实现了“降维”(降低建模维度)的目的。
虽然矩阵分解的模型对于挖掘用户和物品的内在联系有比较强的作用,但是这类模型的劣势也十分明显。
第一,矩阵分解的矩阵仅仅是对用户和物品的喜好进行了“编码”(Encode)。我们之前在解释基于内容的推荐系统时说过,对于一个复杂的工业级推荐系统来说,有很多灵感或者直觉,都很难仅仅依赖用户和物品的喜好来捕捉到。有大量的信号,无法很好地被融合到这个矩阵分解的模式里。因此,矩阵分解虽然是不错的“独立”模型(Standalone),但在融合多种不同的推荐元素方面,表现却很一般。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

基于回归的矩阵分解是推荐系统中流行的模型之一,它解决了传统矩阵分解模型的一些问题。传统矩阵分解模型虽然能够挖掘用户和物品的内在联系,但存在无法捕捉更多信号和处理“冷启动”问题的劣势。基于回归的矩阵分解通过引入用户和物品的显式特性,建立了从显式特性到隐向量的回归模型,从而解决了传统模型的问题。这种模型的优势在于能更好地处理“冷启动”问题,即使对于新用户和新物品,也能通过显式特性估计其隐向量。此外,基于回归的矩阵分解也可以从贝叶斯的角度来理解,将显式特性的变换视为隐向量的先验信息。然而,学习这种模型需要采用复杂的“期望最大化”流程,且仅能得到局部解。因此,基于回归的矩阵分解模型虽然解决了一些问题,但仍存在一些短板需要进一步探讨。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》
新⼈⾸单¥98
立即购买
登录 后留言

全部留言(5)

  • 最新
  • 精选
  • 米乐乐果
    希望老师可以顺带指出比较经典的论文😬
    2018-03-25
    3
  • 惜心(伟祺)
    相当于先用矩阵分解得到隐变量向量 作为y 用用户和物品的显变量作为数据x 拟合求出 theta 在用的时候 利用新来用户武品显变量信息点乘参赛求出一个向量 后面求相似度就和矩阵分界出的物品矩阵和用户矩阵类似了
    2018-04-02
    2
  • 林彦
    基于回归的矩阵分解需要在实践中尝试不同的回归模型。回归模型中的特征工程在实践中要结合领域知识,这里要推断和隐式特征的更好的关系不太容易。在大规模数据中这种方法的收敛性,找到最优解是不是有一定难度。
    2018-03-08
  • 微微一笑
    文章的更新顺序不是按照目录来的吧?推荐系统架构剖析的文章找不到
    2018-03-07
  • Peter
    老师,请问这块有没有一些资料或者论文可以看呀
    2018-03-07
收起评论
显示
设置
留言
5
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部