• 异尘
    2018-05-14
    这里的模型是用作召回的,用softmax的思路同word2vec的预测部分类似,最终目的是得出embeded向量,用过embeded向量可以用很多模糊近邻算法快速召回,后续再应用wide&deep排序
    
     4
  • jacket
    2018-04-18
    老师,看前面介绍BPR排序模型的时候,我觉得矩阵因子分解的方法,可以预测出同个用户对不同商品的评分,这是同个用户的评分标准,根据评分直接就可以拍个顺序了。这种方法跟BPR比较的话,孰好孰坏那?
    
     2
  • 林彦
    2018-04-17
    我的理解softmax已经线下预测出用户最有可能看的视频,线上预测如另一个评论所述为了从数百万个视频中计算最可能的N个类(视频),用softmax进行评分或校验计算成本比较高,无法满足线上的延时要求。我们假定物以类聚,找出和最可能的视频相近的N个邻居的效果和用softmax验证每个结果并筛选出最可能的N个是比较相近的。这里看原文的是选出的N个(数百个)视频的排序过程中引入了新的特征,然后用一个和候选集训练模型类似架构的深度神经网络,最后一层换成了逻辑回归来对推荐视频进行评分并排序。开始我还以为能利用近邻搜索的距离。
    
     2
  • 刘大猫
    2018-04-16
    老师介绍的这部分是matching部分,不是很关注具体的排序,计算softmax成本太大,所以召回的时候用近邻检索,提高效率。
    
     2
  • jt120
    2018-04-16
    公式解析有问题,youtube的那个实现哪里还能找到资料?

    作者回复: chenkaijiang001@lianjia.com,你给我联系,我发给你。

    
     1
  • haolison
    2019-11-10
    各位大神好,我是新来的haolison,我收听点播的时候怎么听不到讲课的呢?
    
    
  • 罗马工匠
    2019-10-06
    回答下后面思考题,跟大家探讨。embedding暗藏距离的表达,就是生长方式是受某种假设而约束的,同时用户和物品的embedding生长在同一空间,这样就能用embedding来计算相似性。比如word2vec,是基于相似上下文的单词具有相同含义的假设,用词来预测词,softmax表达了这种假设,学出来的embedding天然有相似性表达。而YouTube的则是另一个思路,是协同过滤的深度学习表达,从特征层面可以看做近邻推荐(看过的视频)+side info,从网络结构也可以看做svd++的dl表达。都暗含距离的含义。你甚至都能把这个网络看做side info+word2vec。softmax+损失函数强调的是要预测的物品要有最大概率,这个从技术层面保证你看过的视频跟后来看过的视频间的相似性。
    embedding暗含相似性后,自然可以用距离来求,快捷较准确。
    展开
     1
    
  • shangqiu86
    2019-05-05
    YouTube那篇论文我也看过,也看过一些对该论文解读的部分,感觉论文的大部分介绍的还是特征的选择,希望老师以后可以单独开一些讲解最新最热paper的课,我会继续支持的。
    
    
  • benying
    2018-11-04
    youtude做了个user2vec
    
    
  • 科技狗
    2018-04-16
    请问老师,YouTube 的ranking 部分,如何对观看时长预测exp(wx+b)和点击概率加权LR同时输出的?
    
    
  • jt120
    2018-04-16
    越相似熵越小?
     1
    
我们在线,来聊聊吧