• 张哲
    2018-03-14
    这一期信息量好大……

    作者回复: 慢慢享用,嚼碎了再吞。

    
     18
  • 林彦
    2018-03-14
    谢谢刑无刀老师的分享。建议各种步骤和场景的工业化工具及其性能和便利,对我们读者提供了不小的价值。

    1. 词嵌入里面提到学习到的包含更多语义信息的(新)词向量可以“用于聚类,会得到比使用词向量聚类更好的语义聚类效果”。这里的聚类是指文中之前提到的LDA等聚类模型来找出文章的主题吗?

    2. “主题模型:从大量已有文本中学习主题向量,然后再预测新的文本在各个主题上的概率分布情况,也很实用,其实这也是一种聚类思想,主题向量也不是标签形式,也是用户画像的常用构成。”请问这里已有文中的主题向量中的主题词如果是通过LDA提取是不是需要有个停用词表排除那些所有文档中词频都很高的词?它不像TF-IDF会自动排除所有文档中词频高的词。 这种场景的聚类就是判别新的文本和哪些主题的文本比较相似(”距离“接近或主题”概率“较大),然后判别新的文本的主题?

    3. ”向量中各个维度上的值大小代表了词包含各个语义的多少“ 有这句说明挺好的。我第一次阅读不太理解,后来查了一些文章,有一个解释我觉得比较直观,Word2Vec生成的向量值可以看成是N维语义空间(N个语义词)中的坐标值(每个坐标轴对应一个语义)。当2个词在同一个N维语义空间中的距离接近时,说明2个词的含义接近。
    展开

    作者回复: 你一定是个学霸,向你致敬。

    1. 这里的聚类是指的传统数据挖掘中的聚类。基于距离或者密度等。如kmeans。
    2. 停用词要去掉。lda在预测阶段也要迭代的,而不是计算相似度。
    3. 你若理解了,就是晴天。

    
     8
  • Drxan
    2018-03-15
    无刀老师,能否建立个微信群啊,大家可以对您每期的课程内容一起学习讨论

    作者回复: 知识星球(原来叫小密圈)搜ResysChina。

    
     7
  • jt120
    2018-03-14
    针对embedding,我不太理解,之前理解就是一种映射关系,但文里为什么说结果是稠密的,这是怎么保证的

    作者回复: 用Word2vec跑出一个结果你就明白了,设定k维的话,你会得到一个k维向量,每个维度上都有值的。

     1
     5
  • 行行行
    2018-03-23
    老师,关于word2vec,有几个疑问
    1 工业上如果通过word2vec得到文档的向量呢,是用累加一个文档中各个词的词向量得到的稠密向量表示吗
    2 用于聚类,是用上面得到的文档向量来做吗
    3 到底是如何通过计算词和词之间的相似度,扩充标签的呢

    作者回复: 1.是
    2.是
    3.用你文本中出现的词,去查询通过word2vec计算得到的相似词,从而实现了“扩展”,原来只有两个词,现在增加了几个相似词,变成了4个词。

     1
     3
  • 漂泊的小飘
    2019-07-01
    幸亏学过人工智能,不然这一章够我喝一壶了
    
     2
  • 🐱无限大人🐱
    2019-11-03
    这篇好干,得好好啃一下
    
     1
  • wjj
    2019-05-31
    老师,TF—IDF中的Top K 排序,实际工作中超参数K值一般取多少?

    作者回复: 看情况。

    
     1
  • Kendal
    2019-02-11
    邢老师你好,我是初学者,第二部分把物品的结构化信息传递给用户这里,您把他看成是一个特征选取的问题。这里没太看懂,还望能够详细解释下。
    假设用户A和我们给他展现的100个物品有了2类操作(消费10,没消费90)。我的理解是这边每个被消费的物品(10个)都有自己的特征向量(假设n维),我们的任务是找到这n维里面到底哪m维是用户真正关心的。这个理解对吗?然后如何选取到这m维,并把它们融合到用户自己原来的向量中又是如何具体实现的?
    谢谢指点!

    作者回复: 文中有详细介绍。后续图书中有例子。

    
     1
  • 预见
    2018-12-01
    我来补充林彦同学的第三点,”向量中各个维度上的值大小代表了词包含各个语义的多少“ 。第一遍看到这句话的时候我没有看懂,查阅资料后才明白。比如使用word embedding,一个单词“北京”,用5维向量“首都,中国,大城市,南方,没雾霾”来表示的话,他的向量形式就是[1, 1, 1, 0, 0],各个维度的值的大小代表了词包含各个语义的多少。老师要是讲的再细致一点,给出示例就更好了

    作者回复: 谢谢你的建议,采纳到图书中。

    
     1
  • 涛
    2018-09-25
    我有一个比较困扰我的问题就是信息增益和WOE、IV之间的区别,我不明白为什么金融欺诈中选取重要性特征都用WOE和IV 方法,而其它领域很少看见用这两个方法进行筛选特征的,谢谢!
    
     1
  • top savor
    2018-04-18
    老师您好,我是初学者,感觉学到很多,但还是有些疑问:请问用户画像如果是用户本身的特征(比如个性签名的文本向量化)+物品端的特征,那在做匹配计算相似度的时候,两者的向量维度岂不是不一样?
    
     1
  • 三竹先生
    2018-03-29
    真的好难啊,邢老师能多结合一下例子吗?方便理解😂😂😂
    
     1
  • jt120
    2018-03-14
    上面提到的都是主流的推荐系统方法,例如电影,图书,新闻这些经典场景。
    但对于特殊商品,例如房子,明显和上面不同,低频,高价,并且房子的特征基本都是分类特征,针对这种场景,如何选择特征,如何推荐了?

    作者回复: 这种场景下,用户也更有耐心一些,可以多向用户询问他的诉求,更像一个辅助决策系统,而不是一个纯粹的推荐系统。

    
     1
  • 雨幕下的稻田
    2019-12-12
    老师问一下,我本身是做新闻的
    1、类别Cj是不是可以理解为点击和未点击
    2、词Wi就是doc的特征或者关键词
    3、点击中包含关键词的,属于正例,点击不包含关键词的是反例
         没点击中不包含关键词的,属于正例,没点击包含关键词的是反例
    4、整个过程是基于doc已有特征的有监督学习
    展开
    
    
  • 夜雨声烦
    2019-11-20
    挺好的 了解了好多

    作者回复: 谢谢。

    
    
  • 赖春苹
    2019-09-25
    感觉还是有一些地方理解不了,看了两三遍还是理解不了:
    1. 上一节提到的用户画像,是这样用的:<i1,i2,i3...> 点积<u1,u2,u3...>,即用户向量和物品向量做点积,得分高的话说明适合推荐;
    2. 这一节讲的,先分别对用户内容和物品内容做文本挖掘,得到物品向量后再对物品向量进行特征选择?(特征选择时需要用到用户的行为标签),我理解的特征选择,就是从物品向量里选择一部分和用户行为结果关联度高的特征,可是,这些特征怎么反映到用户侧呢?这里一直搞不懂,因为从物品里挖出来的重要特征,在用户侧向量里不一定有对应的那一项啊,没有对应的项就没办法进行第1步里的点积计算呀……还请明白人帮忙解答下,真的困扰好久啊~
    
    
  • Yiliu
    2019-09-04
    看完这期课程第一遍的感觉就是😵,只能多刷几遍了
    
    
  • 张苗
    2019-07-17
    这一节都是自然语言处理的基本知识,幸好毕业是做的这块,不然够我喝一壶~😂
    
    
  • nananana
    2019-07-16
    老师您好,我想问一下,用户挑选画像标签看成是特征选择问题,选择的时候,比如使用卡方验证选择,对每一个用户的数据量有什么要求吗?
    
    
我们在线,来聊聊吧