关于数据挖掘:gensimmodelWord2Vec的参数

6次阅读

共计 959 个字符,预计需要花费 3 分钟才能阅读完成。

1.sentences:能够是一个 List,对于大语料集,倡议应用 BrownCorpus,Text8Corpus 或·ineSentence 构建。
2.sg:用于设置训练算法,默认为 0,对应 CBOW 算法;sg= 1 则采纳 skip-gram 算法。
3.size:是指输入的词的向量维数,默认为 100。大的 size 须要更多的训练数据, 然而成果会更好. 推荐值为几十到几百。
4.window:为训练的窗口大小,8 示意每个词思考前 8 个词与后 8 个词(理论代码中还有一个随机选窗口的过程,窗口大小 <=5),默认值为 5。
5.alpha: 是学习速率
6.seed:用于随机数发生器。与初始化词向量无关。
7.min_count: 能够对字典做截断. 词频少于 min_count 次数的单词会被抛弃掉, 默认值为 5。
8.max_vocab_size: 设置词向量构建期间的 RAM 限度。如果所有独立单词个数超过这个,则就打消掉其中最不频繁的一个。每一千万个单词须要大概 1GB 的 RAM。设置成 None 则没有限度。
9.sample: 示意 采样的阈值,如果一个词在训练样本中呈现的频率越大,那么就越会被采样。默认为 1e-3,范畴是(0,1e-5)
10.workers: 参数管制训练的并行数。
11.hs: 是否应用 HS 办法,0 示意不应用,1 示意应用。默认为 0
12.negative: 如果 >0, 则会采纳 negativesamp·ing,用于设置多少个 noise words
13.cbow_mean: 如果为 0,则采纳上下文词向量的和,如果为 1(default)则采纳均值。只有应用 CBOW 的时候才起作用。
14.hashfxn:hash 函数来初始化权重。默认应用 python 的 hash 函数
15.iter:迭代次数,默认为 5。
16.trim_rule:用于设置词汇表的整顿规定,指定那些单词要留下,哪些要被删除。能够设置为 None(min_count 会被应用)或者一个承受() 并返回 RU·E_DISCARD,uti·s.RU·E_KEEP 或者 uti·s.RU·E_DEFAU·T 的函数。
17.sorted_vocab:如果为 1(defau·t),则在调配 word index 的时候会先对单词基于频率降序排序。
18.batch_words:每一批的传递给线程的单词的数量,默认为 10000

正文完
 0