推荐系统三十六式
刑无刀
“贝壳找房”资深算法专家,8 年推荐系统工程师
43607 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已完结/共 40 讲
开篇词 (1讲)
原理篇 · 深度学习 (2讲)
原理篇 · 其他应用算法 (3讲)
推荐系统三十六式
15
15
1.0x
00:00/00:00
登录|注册

08 | 解密“看了又看”和“买了又买”

Slope One算法
推荐公式
用户中心化
物品中心化
加权平均
预测评分
相似度计算
相关推荐
TopK推荐
改进方法
余弦相似度计算公式
稀疏向量
基于物品的协同过滤算法的原理
基于物品的协同过滤算法的八卦
Slope One算法的改进
基于物品的协同过滤算法应用
在线更新能力
算法介绍
推荐结果计算
物品相似度计算
介绍
总结
Slope One算法
基于物品的协同过滤算法

该思维导图由 AI 生成,仅供参考

不管你有没有剁过手,你对“看了这个商品的还看了”这样的推荐形式一定不陌生。无论是猫还是狗,或者是其他电商网站,这样的推荐产品可以说是推荐系统的标配了。
类似的还有,如点评标记类网站的“喜欢了这部电影的还喜欢了”,社交媒体网站的“关注了这个人还关注了”,这些都只是文案类似,动词不同而已。
这样的推荐形式背后都是来自一个古老的推荐算法,叫做基于物品的协同过滤,通常也被叫作 Item-Based,因为后者更容易搜索到相关的文章,所以被更多地提及。
如果做推荐系统不知道“基于物品的协同过滤”,那等同于做程序员不懂得冒泡排序。这个朴素的算法,就像是乔峰大战聚贤庄所用的“太祖长拳”一样,简单直接有效,读过高中就懂,用得好也能够战倒绝大多数的武林豪杰。今天,我就来和你聊聊这个朴素的算法。

基于物品(Item-Based)的八卦

基于物品的协同过滤算法诞生于 1998 年,是由亚马逊首先提出的,并在 2001 年由其发明者发表了相应的论文( Item-Based Collaborative Filtering Recommendation Algorithms )。
这篇论文在 Google 学术上引用数已近 7000,并且在 WWW2016 大会上被授予了“时间检验奖”,颁奖词是:“这篇杰出的论文深深地影响了实际应用”。历经了 15 年后仍然在发光发热,这个奖它显然受之无愧。
虽然今天各家公司都在使用这个算法,好像它是一个公共资源一样,然而并不是这样,亚马逊早在 1998 年,也就是论文发表的三年前就申请了专利。
讲完了算法的八卦,开始说正事了。

基于物品(Item-Based)原理

在基于物品的协同过滤出现之前,信息过滤系统最常使用的是基于用户的协同过滤。基于用户的协同过滤首先计算相似用户,然后再根据相似用户的喜好推荐物品,这个算法有这么几个问题:
用户数量往往比较大,计算起来非常吃力,成为瓶颈;
用户的口味其实变化还是很快的,不是静态的,所以兴趣迁移问题很难反应出来;
数据稀疏,用户和用户之间有共同的消费行为实际上是比较少的,而且一般都是一些热门物品,对发现用户兴趣帮助也不大。
和基于用户的不同,基于物品的协同过滤首先计算相似物品,然后再根据用户消费过、或者正在消费的物品为其推荐相似的,基于物品的算法怎么就解决了上面这些问题呢?
首先,物品的数量,或者严格的说,可以推荐的物品数量往往少于用户数量;所以一般计算物品之间的相似度就不会成为瓶颈。
其次,物品之间的相似度比较静态,它们变化的速度没有用户的口味变化快;所以完全解耦了用户兴趣迁移这个问题。
最后,物品对应的消费者数量较大,对于计算物品之间的相似度稀疏度是好过计算用户之间相似度的。
根据我在上一篇文章中所说,协同过滤最最依赖的是用户物品的关系矩阵,基于物品的协同过滤算法也不能例外,它的基本步骤是这样的:
构建用户物品的关系矩阵,矩阵元素可以是用户的消费行为,也可以是消费后的评价,还可以是对消费行为的某种量化如时间、次数、费用等;
假如矩阵的行表示物品,列表示用户的话,那么就两两计算行向量之间的相似度,得到物品相似度矩阵,行和列都是物品;
产生推荐结果,根据推荐场景不同,有两种产生结果的形式。一种是为某一个物品推荐相关物品,另一种是在个人首页产生类似“猜你喜欢”的推荐结果。不要急,稍后我会分别说。

计算物品相似度

前面较为笼统地说要计算物品之间的相似度,现在详细说说这块。从用户物品关系矩阵中得到的物品向量长什么样子呢?我来给你描述一下:
它是一个稀疏向量;
向量的维度是用户,一个用户代表向量的一维,这个向量的总共维度是总用户数量;
向量各个维度的取值是用户对这个物品的消费结果,可以是行为本身的布尔值,也可以是消费行为量化如时间长短、次数多少、费用大小等,还可以是消费的评价分数;
没有消费过的就不再表示出来,所以说是一个稀疏向量。
接下来就是如何两两计算物品的相似度了,一般选择余弦相似度,当然还有其他的相似度计算法方法也可以。计算公式如下:
用文字解释一下这个公式:
分母是计算两个物品向量的长度,求元素值的平方和再开方。分子是两个向量的点积,相同位置的元素值相乘再求和。
很简单,因为这个公式出自中学数学课本,所以我刚才说读过高中就懂。
这个公式的物理意义就是计算两个向量的夹角余弦值,相似度为 1 时,对应角度是 0,好比时如胶似漆,相似度为 0 时,对应角度为 90 度,毫不相干,互为路人甲。
看上去计算量很大,貌似每一个求和的复杂度都是和向量维度、也就是用户数量一样的。但是别忘了,前面我说过他们都是稀疏向量,也就是向量中绝大多数值都是 0,求和时不用算,点积时更不用算,甚至求点积时只用管两个物品的公共用户,只是少许几个乘积而已。
物品之间的相似度计算是这个算法最可以改进的地方。通常的改进方向有下面两种。
1. 物品中心化。把矩阵中的分数,减去的是物品分数的均值;先计算每一个物品收到评分的均值,然后再把物品向量中的分数减去对应物品的均值。这样做的目的是什么呢?去掉物品中铁杆粉丝群体的非理性因素,例如一个流量明星的电影,其脑残粉可能会集体去打高分,那么用物品的均值来中心化就有一定的抑制作用。
2. 用户中心化。把矩阵中的分数,减去对应用户分数的均值;先计算每一个用户的评分均值,然后把他打过的所有分数都减去这个均值。
这样做的目的又是什么呢?每个人标准不一样,有的标准严苛,有的宽松,所以减去用户的均值可以在一定程度上仅仅保留了偏好,去掉了主观成分。
上面提到的相似度计算方法,不只是适用于评分类矩阵,也适用于行为矩阵。所谓行为矩阵,即矩阵元素为 0 或者 1 的布尔值,也就是在前面的专栏中讲过的隐式反馈。隐式反馈取值特殊,有一些基于物品的改进推荐算法无法应用,比如著名的 Slope One 算法。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

基于物品的协同过滤算法是一种古老而有效的推荐系统算法,被广泛应用于电商网站、点评标记类网站和社交媒体网站等。与基于用户的协同过滤不同,该算法首先计算相似物品,然后根据用户消费过或正在消费的物品为其推荐相似的物品。该算法的优势在于解决了用户数量庞大、口味变化快和数据稀疏等问题。基本步骤包括构建用户物品的关系矩阵、计算物品相似度和产生推荐结果。另外,Slope One算法是一个改良版的基于物品推荐算法,专门针对评分矩阵,能够实现在线更新。这些算法为推荐系统的改进提供了有力支持,常见于“买了又买”“看了又看”这样的相关推荐。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《推荐系统三十六式》
新⼈⾸单¥59
立即购买
登录 后留言

全部留言(33)

  • 最新
  • 精选
  • 预见
    老师讲的真不错,我一般看第一遍可能吸收百分之30,第二遍开始,自己写笔记,参透每一个概念和公式。基本能吸收85以上。第二遍花费的时间是第一遍的两倍多,最后豁然开朗,甚是欣慰!

    作者回复: 图书正在编辑中,比专栏详细更多。

    2018-12-10
    3
  • 王掌柜家的小二
    想问老师一个问题:在应用slope one算法推荐时,先计算出某个用户未评分的所有物品的评分,然后根据推荐分数生成推荐列表,进而推荐——这样理解对吗?

    作者回复: 你说的这个是所有推荐算法的工作流程。 Slopeone,你看一下代码,我这里有一个简单实现。 https://github.com/xingwudao/36/blob/master/src/cf/slope_one.py

    2018-11-19
    2
  • 夜雨声烦
    Slope One算法那块讲的太粗糙了,而且感觉数据图是错的啊,物品B和物品C的用户数难道不应该是2吗?

    作者回复: Slope one简单介绍了一下,主要是介绍其思想。你说的错误已经修改了,谢谢指出啊。欢迎继续交流:chenkaijiang001@ke.com

    2019-11-21
  • shoxx
    刀大 我看懂了 不必回覆 感謝

    作者回复: 抱歉我来晚了。你厉害!

    2018-03-22
  • Jack_Sainity
    用户中心化这一块个人觉得容易引起歧义。虽然陈老师你说了这个是对整个矩阵进行处理,但是放在这一章不合适,还是应该放在基于用户的协同过滤。或者就评分的预处理单独开辟一节讨论。

    作者回复: 谢谢,听取你的建议,在专栏结束后做一定的修正。

    2018-03-22
  • Skye
    形老师,我想问一下,我想在地点推荐中加入天气特征,天气有降水,温度等等特征。不想直接作为机器学习的特征输入,想加到矩阵分解模型中去,有什么方法或者参考吗?非常感谢

    作者回复: 分成两步:第一步,返回去阅读一下《开篇词》第十三段第一句。第二步,等下周矩阵分解会聊到这个问题。

    2018-03-22
  • 四夕英河
    Slope One算法那里感觉说的不够清楚,说下小白的意见,抛砖迎玉。 第一,物品A与物品B之间的差距是指平均下来A与B的评分差距,并且这里还是有方向的,A与B的评分差距和B与A的评分差距互为相反数。比如这里A与B的评分差距可以理解为A物品的评分平均比B物品的评分高0.5分(注意这里的“平均”),而B与A的评分差距则是-0.5分。 第二,矩阵一般都是先行后列,比如矩阵A[1,2]是指第一行的第二列,但是这里的矩阵是相反的,比如A与B的评分差距,本来应该是在第一行第二列,但是这里是在第二行第一列。 我想这评论样第一位那位同学的问题应该可以解决。那个同学说的C与B的评分差距在原文中其实不是1(1),而是-1(1),并且准确的评分应该是1(2),因为按照你说的是C与B,不是B与C。
    2018-04-21
    1
    51
  • AbyssKR
    邢老师,两两计算物品间差距,物品C与物品B间为什么不是 -1(2) 而是 1(1) 呢?
    2018-03-21
    20
  • 林彦
    谢谢邢无刀老师的分享。你的分享很有价值,能写出来很不容易。 1. "只需要按照用户评分过的物品,逐一取出和它们相似的物品出来就可以了"这里取出物品的相似度需不需要一个阈值来减少取出(用来计算)的物品数目?按照前文物品相似度的计算公式,只要2个物品有公共用户(的消费结果或行为),这个物品相似度值就为非零值。实际应用中物品相似度的非零值会不会数量还是很大的,这个数量对TopK推荐的计算耗时影响大吗,如从几秒钟变成分钟级? 2. "上面提到的相似度计算方法,不只是适用于评分类矩阵,也适用于行为矩阵。所谓行为矩阵,即矩阵元素为 0 或者 1 的布尔值",如果这个相似度计算方法应用于行为矩阵,计算中使用的均值是一个介于0和1之间的浮点数,减去均值后矩阵的值从0或1(整型值或布尔值)变成了浮点数值。是这样吗? 3. 请问“两两物品之间的差距”的距离计算用的是Slope One特有的距离计算公式?我看了一篇文章https://arxiv.org/pdf/1202.1112.pdf,里面的公式(28)是计算距离的。物品 A 和物品 B 之间的差距是:((5-3)+(3-4))/2=0.5,物品A和物品C之间的差距是:(5-2)/1=3。与文中相符。 4. 文中最后的加权平均我的理解是上面引文中的公式(30) 5. Slope One 可以做到在线更新我的理解是每当有一个新的用户评分时,只需要把原来该用户对于这个物品的评分值从推荐分数替换成实际分数,然后更新物品间距离矩阵中包含这个物品的行和列即可,每个矩阵元素计算过程中以前的分子和分母值可以保留,只需往分子增加一个项目,分母加1即可更新。同时行或列的值只需计算一次,然后取相反数填到行列转置的位置。而相似度矩阵计算则需要遍历所有和这个物品有公共用户的物品的所有公共用户的评分,我的判断计算量还是要大不少的。
    2018-03-23
    16
  • 萌面赵先生
    A和B的差距: ((5+3)-(3+4))/2 = 0.5; A和C的差距:(5-2)/1 = 3; B和A的差距:((3+4)-(5+3))/2 = -0.5; B和C的差距:((3+2)-(2+5))/2 = -1; C和A的差距:(2-5)/1 = -3; C和B的差距:((2+5)-(3+2))/2 = 1; 如果按照此规则计算,表2中的B对C的差距应该是-1,C对B的差距应该是1,表2中是不是方反了?
    2019-03-22
    1
    13
收起评论
大纲
固定大纲
基于物品(Item-Based)的八卦
基于物品(Item-Based)原理
计算物品相似度
显示
设置
留言
33
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部