Я пытаюсь обучить Stanford Neural Network Parser для китайского, описанного в этой статье:
http://cs.stanford.edu/people/danqi/papers/emnlp2014.pdf
и в разделе 3.2 я нашел это:
Конкретно, мы используем ... наши обученные 50-мерные вложения word2vec (Mikolov et al., 2013) в Wikipedia и Gigaword corpus для китайского языка (#dictionary = 285 791, охват = 79,0%).
Так что я хочу знать, где я могу получить эти вложения для китайского языка.Я могу найти только вложения с 100 размерами на веб-сайте word2vec, но не могу найти никаких 50 измерений вложений.
Если мне нужно обучить эти вложения самостоятельноКто-нибудь может дать какую-то детальную информацию?Выражение «в Википедии и корпусе Гигаворда» в статье кажется довольно расплывчатым, и я действительно не знаю, какой корпус и какой его раздел следует использовать для обучения.
Заранее спасибо!