103 | 为什么需要Word2Vec算法?
洪亮劼
该思维导图由 AI 生成,仅供参考
至此,关于文本分析这个方向,我们已经介绍了 LDA(Latent Diriclet Allocation),这是一个出色的无监督学习的文本挖掘模型。还有“隐语义分析”(Latent Semantic Indexing),其核心是基于矩阵分解的代数方法。接着,我们分享了“概率隐语义分析”(Probabilistic Latent Semantic Indexing),这类模型有效地弥补了隐语义分析的不足,成为了在 LDA 兴起之前的有力的文本分析工具。我们还介绍了 EM(Expectation Maximization)算法,这是针对隐参数模型最直接有效的训练方法之一。
今天,我们进入文本分析的另外一个环节,介绍一个最近几年兴起的重要文本模型,Word2Vec。可以说,这个模型对文本挖掘、自然语言处理、乃至很多其他领域比如网络结构分析(Network Analysis)等都有很重要的影响。
我们先来看 Word2Vec 的一个最基本的形式。
Word2Vec 背景
了解任何一种模型或者算法都需要了解这种方法背后被提出的动机,这是一种能够拨开繁复的数学公式从而了解模型本质的方法。
那么,Word2Vec 的提出有什么背景呢?我们从两个方面来进行解读。
首先,我们之前在介绍 LDA 和 PLSA 等隐变量模型的时候就提到过,这些模型的一大优势就是在文档信息没有任何监督标签的情况下,能够学习到文档的“隐含特性”。这也是文档领域“表征学习”(Representation Learning)的重要工具。遗憾的是,不管是 LDA 还是 PLSA 其实都是把文档当作“词包”(Bag Of Word),然后从中学习到语言的特征。
这样做当然可以产生不小的效果,不过,从自然语言处理,或者是文档建模的角度来说,人们一直都在探讨,如何能够把单词的顺序利用到学习表征里。什么意思呢?文档中很重要的信息是单词的顺序,某一个特定单词组合代表了一个词组或者是一个句子,然后句子自然也就代表着某种语义。词包的表达方式打破了所有词组顺序以及高维度的语义表达,因此长期以来被认为并不能真正学习到语言的精华。
然而,在主题模型这个大旗帜下,已经有不少学者和研究员试图把词序和语义给加入到模型中,这些尝试都没有得到很好的效果,或者模型过于复杂变得不适用。于是,大家都期待着新的工具能够解决这方面的问题。
另外一个思路也是从词包发展来的。词包本身要求把一个词表达成为一个向量。这个向量里只有一个维度是 1,其他的维度都是 0。因为每个词都表达成为这样离散的向量,因此词与词之间没有任何的重叠。既然两个离散的向量没有重叠,我们自然也就无法从这个离散的词包表达来推断任何词语的高维度语义。这也是为什么大家会利用主题模型从这个离散的词包中抽取主题信息,从而达到理解高维度语义的目的。
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结
Word2Vec算法是一种重要的文本模型,它通过学习单词的连续空间表达来捕捉语义信息。文章首先介绍了Word2Vec模型的背景,指出了传统模型在处理文档信息时的局限性,以及对词序和语义的探索需求。接着详细解释了Word2Vec模型的核心思想和两种主要模型:Skip-Gram和Continuous-Bag-of-Word。Skip-Gram模型通过当前词预测周围词,而CBOW模型则相反,通过一组词汇预测中间某个词,从而实现了对连续空间的词表达的学习。最后,文章提出了一个思考题,邀请读者探讨Word2Vec与LDA模型的优劣之处。总的来说,本文通过简洁明了的语言,深入浅出地介绍了Word2Vec算法的原理和应用,为读者提供了对该算法的全面了解。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 技术内参》,新⼈⾸单¥98
《AI 技术内参》,新⼈⾸单¥98
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
全部留言(2)
- 最新
- 精选
- hayley对于短文本,怎么提升word2vec的效果?2018-07-19
- arfaLDA得到的是主题及主题的词分布,word2vec计算的是是词向量2018-05-11
收起评论