AI 技术内参
洪亮劼
Etsy 数据科学主管,前雅虎研究院资深科学家
33455 人已学习
新⼈⾸单¥98
登录后,你可以任选6讲全文学习
课程目录
已完结/共 166 讲
开篇词 (1讲)
人工智能国际顶级会议 (31讲)
搜索核心技术 (28讲)
推荐系统核心技术 (22讲)
数据科学家与数据科学团队养成 (25讲)
AI 技术内参
15
15
1.0x
00:00/00:00
登录|注册

065 | 高级推荐模型之二:协同矩阵分解

利用随机梯度下降法学习
问题:使用同一组隐变量表达所有同类关系存在局限性
假设不同关系使用相同的隐变量
使用多个矩阵分解建模不同二元关系
需要显式地表达不同的二元关系
矩阵分解的局限性
是否所有的张量分解都可以化为多个协同矩阵分解
协同矩阵分解和张量分解的关系
学习过程
协同矩阵分解的基本思路
为什么需要协同矩阵分解
解决融合多种渠道信息的问题
求解过程相对复杂,不同的分解方法带来不同的建模选择
将不同的上下文当作新的维度放进一个张量中进行建模
思考题
协同矩阵分解
张量分解
高级推荐模型之二:协同矩阵分解

该思维导图由 AI 生成,仅供参考

周一我们讨论了“张量分解”模型。这种模型的特点是能够把不同的上下文当作新的维度,放进一个张量中进行建模。虽然张量分解是矩阵分解在概念上的一种直觉扩展,但其在现实建模的过程中有很大难度,最大的问题就是张量分解的求解过程相对比较复杂,不同的分解方法又带来不同的建模选择。
今天,我们来看另外一种思路,来解决融合多种渠道信息的问题,这就是协同矩阵分解(Collective Matrix Factorization)。

为什么需要协同矩阵分解

在解释什么是协同矩阵分解之前,我们先来看一看为什么需要这样一种思路。我们还是需要回到矩阵分解本身。
矩阵分解的核心就是通过矩阵,这个二维的数据结构,来对用户和物品的交互信息进行建模。因为其二维的属性,矩阵往往只能对用户的某一种交互信息直接进行建模,这就带来很大的局限性。
在之前的讨论中,我们看到了一系列不同的思路来对这样的基本结构进行扩展。
思路一,就是通过建立显式变量和隐变量之间的回归关系,从而让矩阵分解的核心结构可以获得更多信息的帮助。
思路二,则是采用分解机这样的集大成模型,从而把所有的特性,都融入到一个统一的模型中去。
思路三,就是我们这周已经讲到的,利用张量,把二维的信息扩展到 N 维进行建模。
这些已有的思路都各有利弊,需要针对具体的情况来分析究竟什么样的模型最有效果。
然而在有一些应用中,除了用户和物品这样很明显的二元关系以外,还有其他也很明显的二元关系,如何把这些二元关系有效地组织起来,就变成了一个有挑战的任务。
什么意思呢?比如,我们是一个社交媒体的网站,既有用户对于物品(比如帖子)的交互信息,又有用户之间的互相连接信息(谁与谁是好友等)。那么,如何来显式地表达这两类不同的二元关系呢?
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

协同矩阵分解是一种高级推荐模型,用于解决融合多种渠道信息的问题。相比于传统的矩阵分解,协同矩阵分解能够有效地建模多种二元关系,如用户与用户的关系和用户与物品的关系。其基本思路是使用多个矩阵分解来分别建模不同的关系,然后通过假设不同关系共享相同的隐变量,将这些关系串联起来,减少变量数目,同时让各种关系互相影响。然而,这种假设也存在局限性,因为不同关系的数据量可能存在差异,导致学到的隐变量未必能够真正表达所有的关系。在实际应用中,学者们也在思考对策来解决这一问题。在协同矩阵分解的学习过程中,参数的学习过程和单个矩阵分解相比没有太多本质性的变化,仍然可以使用随机梯度下降法进行学习。总的来说,协同矩阵分解是一种强大的模型,能够有效地处理多种二元信息,但在实际应用中也需要注意不同关系数据量的差异性带来的影响。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》
新⼈⾸单¥98
立即购买
登录 后留言

全部留言(1)

  • 最新
  • 精选
  • 林彦
    我的理解张量分解里面矩阵的值对应(1)N维或N元信息同时关联发生的事件或概率,(2)把N维完全拆开每维发生的事件或概率。协同矩阵分解里面对应的是二维或二元之间的关联,同时假定其中的某个(或某些?)维度有一些隐藏元素影响这些关联。 张量分解能拆成或组合成两两关联,我觉得不大可能所有的两两关联都能协同。协同矩阵分解可以看成一种简化或更集中的张量分解。
    2018-03-14
    2
收起评论
显示
设置
留言
1
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部