• 枫林火山
    2019-04-11
    黄老师,一直没想明白多元文法里的前面N个词的是否有顺序。例如: 大家好, 家大好 。 这2种情况都符合三元文法中的P(xn|xn-2,xn-1)的统计条件吗?
    推广下 P(x1,x2,x3,x4….xn) 等于 P(xn,xn-1,xn-2,….,x4,x3,x2,x1) 吗?
    百度-联合概率是指在多元的概率分布中多个随机变量分别满足各自条件的概率。我的理解联合概率的条件是可以交换顺序的。
    所以从联合概率定义的角度理解是等于的, 但是从语法模型的角度理解,语法是有顺序的,那用联合概率表示对不对。
    本节讲的语法模型是把一句话当作有序队列去对待的还是无序集合对待的? 我听您的讲解是感觉是有序的,但是我理解公式从联合概率定义又感觉公式是在说一个无序的一组条件。 没法把这两者联系起来。
    以下两组公式,我只能知道当使用一元文法时,二者时相等的。二元以上有点懵!老师能不能讲解下
    P(x1,x2,x3,x4….xn) = P(x1)*P(x2|x1)*P(x3|x1,x2)*…….*P(xn|x1,x2,x3,x4….xn-1)
    P(xn,xn-1,xn-2,….,x4,x3,x2,x1) = P(xn)*P(xn-1|xn)*P(xn-2|xn,xn-1)*…….*P(x1|xn,xn-1,……,x2)
    展开

    作者回复: 联合概率是不考虑顺序的,而N元文法一般都是要考虑一点顺序的。所谓“一点”就如你所提到的,这是一个条件概率P(xn|xn-2,xn-1),顺序是指xn-2和xn-1都是在xn的前面出现,但是我们并不关心xn-2和xn-1之间的顺序。而另一方面,我们之前已经考虑了P(xn-1|xn-2, xn-3),你可以认为xn-1和xn-2之间的关系已经在这一步考虑了。
    至于你说的最后一点,P(x1,x2,x3,x4….xn) 和P(xn,xn-1,xn-2,….,x4,x3,x2,x1)理论上应该是一致的。但是n稍微大点,我们就无法直接求了,所以要使用马尔科夫假设进行近似。而马尔科夫假在一定程度上考虑了文本出现的顺序,所以不同顺序的x1,x2...xn就会影响近似的结果,所以有P(x1,x2,x3,x4….xn)约等于近似结果a,P(xn,xn-1,xn-2,….,x4,x3,x2,x1)约等于近似结果b,a和b都是同一个理论值的近似,但是由于马尔科夫假设的原因,两个近似值不一致。

     2
     9
  • 
    2019-02-08
    文本分类器,对给定文本进行判断。用特征词代表该文本。应该和上篇文章分类的计算有类似之处。计算每个特征词出现在该类文章的概率。然后根据权重分类?或者根据每个词的词频。
    (我也很迷糊)那中文中有时词的顺序错乱也能表达一个意思。
    比如,密码是123和321是密码;蹦迪坟头和坟头蹦迪。
    比如(相互和互相;代替和替代)比
    如,纳税可以是一个专有名词,也可以是人名,姓纳名税。还有那遇到多音字咋办?
    展开

    作者回复: 这个问题很好,确实中文比较特殊,和拉丁文不太一样。

    我觉得你的问题是:中文里的歧义或者分词错误,是不是会影响分类?
    你说的这几种情况,我简单分为以下几种:

    分词:如果我们能知道123或321代表一个字符串,而不是单个的数字,那么就不会切分它们。再例如“相互”也不会切为“相”和“互”。当然中文分词本身不是件容易的事情,我这里提到概率语言模型,如果语料里有相关的信息,那么可以在一定程度上提升分词效果。

    同义词:如果我们能正确切分出“相互”和“互相”,那么还需要把它们关联为同义词。基本的做法是使用词典。

    语义:“纳税”的问题就更复杂一些,需要计算机理解上下文关系和语义。从统计的角度而言,那还是要看语料里“纳税”这个词哪种情况的概率更高。

    所以,自然语言处理,尤其是中文的处理,是件相当复杂也是相当有趣的事情。“词包”模型只是最基本的模型,如果我们想优化它在分类问题上的表现,需要解决好中文分词、消除歧义、同义词/近义词等问题。每个问题都是值得研究,并且可以提升的。如果每个点都能得到优化,那么最终分类的效果也会得到优化。

    总结一下,文本分类涉及的面很广,不仅受到分类算法的影响,还受到其他许多自然语言处理的影响。由于这个系列专栏的主题是数学,所以我这讲只能把概率和相关分类算的核心思想体现出来。如果你对自然语言处理有兴趣,我可以在加餐或者其他专栏中和你分享。

    
     4
  • qinggeouye
    2019-03-05
    思考题:

    首先,利用语言模型进行中文分词,计算句子 S=使用纯净水源浇灌的大米,属于哪种分词结果 W(“使用|纯净|水源|浇灌|的|大米”、“使用|纯净水|源|浇灌|的|大米”)的概率最大?

    然后,回到上节的文本分类,再计算 分词结果W 属于哪种分类(“大米”、“纯净水”)的概率比较大?
    展开

    作者回复: 这是一种方法👌

    
     2
  • 唯她命
    2019-02-26
    已经求得p(q|d) = p(k1,k2,k3...,kn|d) = p(k1|d) * p(k2|k1,d) * p(k3|k2,k1,d) ....
    那么我们怎么求得 p(k2|k1,d) 和 p(k3|k2,k1,d)呢

    作者回复: 在实际项目中,可以通过大量的语料来统计,比如文档d中,在k1后面出现k2的次数,除以k1出现的次数,用来近似P(k2|k1,d)

    
     2
  • acheng
    2019-02-16
    换句话说:其实我是想问,如何能更好的利用全文或者说全部训练集的语义信息?

    作者回复: 如果是词包模型,确实对语义没有太多的理解。可以加入一些基于文法甚至是领域知识的语义分析,不过这个和具体的应用有关系,可能不是语法模型本身能很好解决的。例如,评论中的情感分析(sentiment analysis),我们可以考虑表达情感的词在否定句式中的表达等等。

    
     2
  • Paul Shan
    2019-09-05
    思考题
    原来中文分词的是一个句子在所有语料条件下成句的最大概率分词方法。如果语料足够多,可以计数在特定文章分类下的条件概率,然后取最大条件概率的分词方法。
    
     1
  • OP_未央
    2019-04-04
    思考题:
    可以增加类别的先验概率,P(w1,w2...wn|C)*P(C);或者已知大米广告的条件下,通过得到的不同分词计算所属类别的概率,选择属于大米概率大的那种分词?

    作者回复: 嗯,是的。可以对不同分类构建分类器,或者增加条件概率

    
     1
  • 总统老唐
    2019-12-19
    黄老师,关于信息检索,若令 p(d | q) 表示,接受到输入 q 这个查询时,用户期望检索的是文章 d 的概率。当我们针对某个具体查询,求出文章库中每一篇文章的概率,所有概率中最大值对应的文章就是用户最想检索的文章,若将 d 称为 q 的 “最相关文章”。那 p(q | d)的含义是否该这样描述,q1,q2,q3这三个查询的最相关文章都是d,现在已知针对某个查询,输出结果为d,那这个查询是q1的概率为 p(q1 | d)

    作者回复: P(q|d)可以通过原有的文档集合来统计,看看每篇文字中某个单词出现几次,然后用次数来计算概率

    
    
  • teddytyy
    2019-12-18
    “对于同一个查询,其出现概率 P(q) 都是相同的,同一个文档 d 的出现概率 P(d) 也是固定的。因此它们可以忽略。“对于这个描述,具体的计算时如何忽略呢?

    作者回复: 在实现的过程,可以直接忽略,直接比较其他的计算结果。

    
    
  • 炎发灼眼
    2019-10-22
    老师你好,文中P(q|d)通过链式法则推导的公式没看懂,联合概率的推导可以看懂,这种带了d的条件概率的推导没有看懂,望老师能给予解释。

    作者回复: 你是指p(q|d) = p(k1,k2,k3...,kn|d) = p(k1|d) * p(k2|k1,d) * p(k3|k2,k1,d)?

    先看链式法则,p(k1,k2,k3,...,kn|d) = p(k1|d) * p(k2|k1,d) * p(k3|k2,k1,d) * ... * p(kn|kn-1,kn-2,...,k2,k1,d),注意这里公式的成立是基于贝叶斯法则的,你可以用贝叶斯法则验证。

    然后,通过马尔科夫假设,当前词只和前若干词相关,这里假设前两个,那么上式子可以简化为
    p(q|d) = p(k1,k2,k3...,kn|d) = p(k1|d) * p(k2|k1,d) * p(k3|k2,k1,d) * p(k4|k3,k2,d) * ... * p(kn|kn-1,kn-2,d)

    
    
  • Paul Shan
    2019-09-05
    中文分词就是选用不同的分词,然后计算每个分词成句的概率大小来对分词作优劣判断。
    
    
  • Paul Shan
    2019-09-05
    信息检索是建立文章和查询的条件概率来判断查询和文章的紧密关系,这里查询当中一句句子来处理,然后用近似方法计算其在文中的概率,请问老师,查询里每个关键词的前后顺序和相邻都没什么关系,但是马尔可夫假设用到了前后和相邻关系,这样会不会造成较大误差?

    作者回复: 查询里的关键词有时候是存在一定的先后顺序,比如“相机镜头”和“带镜头的相机”,不过确实很多查询里的关键词都可以用词袋模型处理。当然,要精细化的提升查询的准确率,词袋就不够了。

    
    
  • Paul Shan
    2019-09-05
    链式法则和马尔可夫假设可以大大简化计算联合概率的复杂度。链式法则在数学上是等价。马尔可夫假设是不是基于这样的事实,文章中的单词和该单词前n个单词的关系较为紧密,但是和其他单词没什么关系,从另一个角度看,一个单词和紧接着的单词也有紧密关系,但这一层关系在马尔可夫假设里由后面的单词处理,请问老师是不是这样,多谢。

    作者回复: 是的,链式法则是等价的,马尔科夫假设用于简化

    
    
  • 楼外楼
    2019-08-15
    看完第二遍才搞清楚 P(x1,x2,...Xn)= P(x1)*P(x2|x1)*P(x3|x2)... 前提是: 各个条件都是独立的--参考一元文法;第二前提是: P(xn|x1,x2,...) = P(xn|xn-1,xn-2)
    
    
  • 凝神寂照
    2019-07-20
    老师您好,对于信息检索部分,计算 P(d|q)=P(q|d)P(d)/P(q)来对不同文档进行排序,P(q)是固定的我能理解,但是对于不同的文档P(d)应该是不同的吧,您为什么说P(d)是固定的呢?

    作者回复: 这里是假设每篇文章都出现了1/N次,N表示文章总数

    
    
  • 李斌
    2019-07-14
    查询文档相关性的部分,elasticsearch 里常用 TF-IDF 以及最新的 BM25,两者都用到了 IDF 信息,但是感觉基于概率的方法没有用到 IDF 的信息啊

    作者回复: 一般基于概率的不用TF-IDF,这主要是因为概率论有自己的理论体系,概率的估算是使用最大似然,而非TF-IDF。

    
    
  • jennbetty
    2019-06-02
    老师我不明白中文分词求出的三元文法P(s|D)是如何求出argmax(P(Wi|D))的呢?比如说P(w2|D), P(w3|D)是怎么求出来的呢

    作者回复: 你的意思是说,如何在三元文法的情况下,求解p(s|D)?基本还是一致的,只是把P(wn|D)改为P(wn|wn-1, wn-2, D)

    
    
  • 枫林火山
    2019-04-12
    明白这个顺序在哪里体现了,谢谢老师的耐心讲解👍🏻

    作者回复: 应该的,你这个问题很好,对其他人也有启发

    
    
  • 唯她命
    2019-02-27
    老师啊,中文分词,同一个句子,我们是不是把每种可能得分词 的ps都算出来啊,然后所有的ps求最大值,也就是这种分词的概率最大,然后我们就选择这种分词方法

    作者回复: 是的👍

    
    
  • 唯她命
    2019-02-26
    老师你好,p(K2 | k1,d) 指的是K2 | k1 和 d的联合概率
    还是指的是 在满足k1和d的条件下,出现k2的概率?

    作者回复: 是第二种,在满足k1和d的条件下,出现k2的概率

    
    
我们在线,来聊聊吧