Почему Word2vector вычислить аналогии неправильно на Стэнфорд-НЛП - PullRequest
0 голосов
/ 24 апреля 2019

Я делаю домашнее задание в Стэнфорде. и я использую слово вектор "word2vec-google-news-300". Мне так нравится:

pprint.pprint(wv_from_bin.most_similar(positive=['woman', 'king'], negative=['man']))

и результат ("королева", 0,7118192911148071) и мне так:

pprint.pprint(wv_from_bin.most_similar(positive=['beijing','japan'], negative=['china']))

результат (Токио, 0.5116556882858276), но почему я это делаю:

pprint.pprint(wv_from_bin.most_similar(positive=['beijing','america'], negative=['china']))

наиболее вероятным является: («США», 0,529512882232666), («Орландо», 0,5259881019592285)
почему будет существовать аналогия, которая не выполняется в соответствии с этими векторами.

...