AI 技术内参
洪亮劼
Etsy 数据科学主管,前雅虎研究院资深科学家
32838 人已学习
新⼈⾸单¥98
登录后,你可以任选6讲全文学习
课程目录
已完结/共 166 讲
开篇词 (1讲)
人工智能国际顶级会议 (31讲)
搜索核心技术 (28讲)
推荐系统核心技术 (22讲)
数据科学家与数据科学团队养成 (25讲)
AI 技术内参
15
15
1.0x
00:00/00:00
登录|注册

062 | 基于隐变量的模型之二:基于回归的矩阵分解

本周我们主要来分享“矩阵分解”的点点滴滴,这是过去 10 年里推荐系统中最流行的一类模型。周一我们讨论了这类方法中最基础的基于隐变量的矩阵分解。这类模型的优势是显式地对用户和物品信息中的隐含结构进行建模,从而能够挖掘更加深层次的用户和物品关系。矩阵分解的流行起源于 10 年前的 Netflix 大赛,当时各类矩阵分解模型都在实际数据中起到了很好的效果。
今天我们要分享的模型,叫作“基于回归的隐变量模型”(Regression-based Latent Factor Model)。这是在基本矩阵分解的基础上衍生出来的一类模型。

基本矩阵分解的问题

我们先来看看基本矩阵分解模型的潜在问题。
首先,我们来回顾一下矩阵分解的基本表达。假设我们在对用户和物品的评分进行建模。对于每一个用户,用一个向量来表达其对于所有可能物品的评分,把所有用户的向量堆积起来,就可以得到一个矩阵。这个矩阵的每一行代表一个用户,每一列代表一个物品,每一个交叉的元素代表某一个用户对于某一个商品的评分。对于每一个用户和物品的隐向量都要少于原有的物品数目,因此,我们也说矩阵分解的模型实现了“降维”(降低建模维度)的目的。
虽然矩阵分解的模型对于挖掘用户和物品的内在联系有比较强的作用,但是这类模型的劣势也十分明显。
第一,矩阵分解的矩阵仅仅是对用户和物品的喜好进行了“编码”(Encode)。我们之前在解释基于内容的推荐系统时说过,对于一个复杂的工业级推荐系统来说,有很多灵感或者直觉,都很难仅仅依赖用户和物品的喜好来捕捉到。有大量的信号,无法很好地被融合到这个矩阵分解的模式里。因此,矩阵分解虽然是不错的“独立”模型(Standalone),但在融合多种不同的推荐元素方面,表现却很一般。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》
新⼈⾸单¥98
立即购买
登录 后留言

全部留言(5)

  • 最新
  • 精选
  • 米乐乐果
    希望老师可以顺带指出比较经典的论文😬
    3
  • 惜心(伟祺)
    相当于先用矩阵分解得到隐变量向量 作为y 用用户和物品的显变量作为数据x 拟合求出 theta 在用的时候 利用新来用户武品显变量信息点乘参赛求出一个向量 后面求相似度就和矩阵分界出的物品矩阵和用户矩阵类似了
    2
  • 林彦
    基于回归的矩阵分解需要在实践中尝试不同的回归模型。回归模型中的特征工程在实践中要结合领域知识,这里要推断和隐式特征的更好的关系不太容易。在大规模数据中这种方法的收敛性,找到最优解是不是有一定难度。
  • 微微一笑
    文章的更新顺序不是按照目录来的吧?推荐系统架构剖析的文章找不到
  • Peter
    老师,请问这块有没有一些资料或者论文可以看呀
收起评论
显示
设置
留言
5
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部