Я просто хочу узнать влияние значения альфа в моделях gensim word2vec
и fasttext
на встраивание слов?Я знаю, что альфа - это initial learning rate
, а его значение по умолчанию - 0.075
из блога Radim.
Что если я изменю это значение на чуть более высокое, то есть 0,5 или 0,75?Каков будет его эффект?Разрешено ли менять то же самое?Однако я изменил это значение на 0,5 и поэкспериментировал с данными большого размера с D = 200, window = 15, min_count = 5, iter = 10, worker = 4, и результаты в значительной степени значимы для модели word2vec.Однако, используя модель быстрого текста, результаты разбиты по битам, что означает менее связанные и непредсказуемые оценки высокого и низкого сходства.
Почему этот неточный результат для одних и тех же данных с двумя популярными моделями с разной точностью?Играет ли значение alpha
такую важную роль при построении модели?
Любое предложение приветствуется.