word2vec与fasttext的区别

什么是N-Gram模型

N-gram是一种基于统计语言模型的算法,它的基本思想是将文本里面的内容按照字节进行大小为N的滑动窗口操作,形成了长度是N的字节片段序列。

每一个字节片段称为gram,对所有gram的出现频度进行统计,并且按照事先设定好的阈值进行过滤,形成关键gram列表,也就是这个文本的向量特征空间,列表中的每一种gram就是一个特征向量维度。

该模型基于一种假设,第N个词的出现只与前面N-1个词相关,而与其他任何词都不相关,整句的概率就是各个词出现概率的乘积。这些概率可以通过直接从语料中统计N个词同时出现的次数得到。常用的二元Bi-Gram和三元Tri-Gram。

Word2vec和Fasttext有什么不同呢?

Word2vec在训练集里是针对每一个词进行训练的,最小的训练粒度是词,从这一点来说Glove跟Word2vec是非常相似的,那可以看下fasttext和Glove有什么区别:

Glove和Word2vec都是以词语为最小粒度进行训练

Fasttext是wordvec的一种拓展,最小训练粒度是字符,(treats each word as composed of character ngrams),然后特征向量是由这些ngrams字节进行求和组成

这种特性让fasttext有以下的特点:

  • 针对稀有词能有更好的embedding向量,因为稀有词也是由ngrams字节组成
  • out of vocabulary words,即使训练集中没有的词语,fasttext也能根据ngrams字节构造其特征向量

比如词语 apple,

是由以下ngrams字节的向量求和构成:

‘ ‘ppl’ ‘pple’ ‘pple>’ ‘ple’ ‘ple>’ ‘le>’

(最小ngram为3,最大ngram为6的情况)

这种区别导致了以下特点:

  • 能更好的训练出稀有词的embedding

    因为在word2vec中稀有词拥有的邻居词更少,而高频词出现的次数多,导致高频词的embedding结果会比稀有词好

  • 即使词语没出现在训练集中 fasttext也能构造出其特征向量

  • fasttext的embedding结果好坏,超参数起到了关键的作用

    超参数中的最小ngram和最大ngram直接影响到最后的结果

    随着训练集的增大,内存的要求也会增长

Quora的原文回答:

参考资料

word2vec: https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf

fasttext: https://arxiv.org/pdf/1607.01759.pdf

https://cai.tools.sap/blog/glove-and-fasttext-two-popular-word-vector-models-in-nlp/

https://www.quora.com/What-is-the-main-difference-between-word2vec-and-fastText