本文归纳整理了一些论文和博客对word2vec的理解,以期理解word2vec。

概述

语言表示:词向量

  1. 词的独热表示(One-Hot Representation)

    缺点:

    • 容易受维数灾难的困扰;
    • 不能很好地刻画词与词之间的相似性,任意两个词之间都是孤立的;
  2. 词的分布式表示(Distributed Representation)

    1. 基于矩阵的分布表示:比如,GloVe模型;
    2. 基于聚类的分布表示;
    3. 基于神经网络的分布表示,词嵌入;

语言模型

文法语言模型,统计语言模型

核心是上下文的表示以及上下文与目标词之间的关系的建模。

语言模型就是计算一个句子的概率大小的模型。一个句子的打分概率越高,越说明他是更合乎人说出来的自然句子。 常见的统计语言模型有N元文法模型(N-gram Model),最常见的是unigram model、bigram model、trigram model等等。 还有N-pos模型。

词嵌入

2001年,Bengio 等人正式提出神经网络语言模型( Neural Network Language Model ,NNLM), 该模型在学习语言模型的同时,也得到了词向量。所以请注意:词向量可以认为是神经网络训练语言模型的副产品

做法:

1、将one-hot中的vector每一个元素由整形改为浮点型,变为整个实数范围的表示; 2、将原来稀疏的巨大维度压缩 嵌入 到一个更小维度的空间。

神经网络语言模型与word2vec

神经网络语言模型:

a. Neural Network Language Model ,NNLM b. Log-Bilinear Language Model, LBL c. Recurrent Neural Network based Language Model,RNNLM d. Collobert 和 Weston 在2008 年提出的 C&W 模型 e. Mikolov 等人提出了 CBOW( Continuous Bagof-Words,连续词袋模型)和 Skip-gram 模型

CBOW和Skip-gram:

  • 如果是用一个词语作为输入,来预测它周围的上下文,那这个模型叫做“Skip-gram 模型”;
  • 而如果是拿一个词语的上下文作为输入,来预测这个词语本身,则是 “CBOW 模型”。

word2vec

实现CBOW和Skip-gram语言模型的工具(正如C&W模型的实现工具是SENNA)。

CBOW和Skip-gram

  1. 原理
  2. 加速训练技巧:
    • Negative Sample
    • Hierarchical Softmax

应用

文本分类,个性化推荐,广告点击等

论文和文章

  1. Mikolov 两篇原论文:
    • Distributed Representations of Sentences and Documents
    • Efficient estimation of word representations in vector space
  2. Yoav Goldberg 的论文:word2vec Explained- Deriving Mikolov et al.’s Negative-Sampling Word-Embedding Method
  3. Xin Rong 的论文:word2vec Parameter Learning Explained
  4. 来斯惟的博士论文:《基于神经网络的词和文档语义向量表示方法研究》以及博客
  5. word2vec 相比之前的 Word Embedding 方法好在什么地方?
  6. Sebastian 的博客:『On word embeddings - Part 2: Approximating the Softmax』
  7. 《How to Generate a Good Word Embedding?》,Siwei Lai, Kang Liu, Liheng Xu, Jun Zhao
  8. 《面向自然语言处理的分布式表示学习》,邱锡鹏
  9. 《Deep Learning 实战之 word2vec》
  10. 一些博文:

本文参考

Comments