Я был перепутан с результатами большинства_подобных и подобных_векторов из Word2vecKeyedVectors от gensim. Предполагается, что они рассчитывают косинусные сходства таким же образом - однако:
Запуск их одним словом дает идентичные результаты, например:
model.most_s Similar (['obama']) и Similar_by_vector (модель ['obama'])
но если я приведу это уравнение:
model.most_similar(positive=['king', 'woman'], negative=['man'])
дает:
[('queen', 0.7515910863876343), ('monarch', 0.6741327047348022), ('princess', 0.6713887453079224), ('kings', 0.6698989868164062), ('kingdom', 0.5971318483352661), ('royal', 0.5921063423156738), ('uncrowned', 0.5911505818367004), ('prince', 0.5909028053283691), ('lady', 0.5904011130332947), ('monarchs', 0.5884358286857605)]
в то время как с:
q = model['king'] - model['man'] + model['woman']
model.similar_by_vector(q)
дает:
[('king', 0.8655095100402832), ('queen', 0.7673765420913696), ('monarch', 0.695580005645752), ('kings', 0.6929547786712646), ('princess', 0.6909604668617249), ('woman', 0.6528975963592529), ('lady', 0.6286187767982483), ('prince', 0.6222133636474609), ('kingdom', 0.6208546161651611), ('royal', 0.6090123653411865)]
Есть заметная разница в косинусном расстоянии слов королева, монарх ... и т. Д. Мне интересно, почему?
Спасибо!