LSTM - завершение предложения с word2vec - PullRequest
0 голосов
/ 27 июня 2018

Я хочу создать модель, которая может предсказать слово, отсутствующее в предложении (предложение содержит целое, которое необходимо заполнить)

Мой набор данных состоит из ~ 1000 предложений, самое короткое предложение имеет длину = 6, самое длинное предложение имеет длину ~ 120000. Размер словаря в наборе данных составляет всего 90.

Будет ли иметь огромное значение, что модель будет иметь одно кодировку или предварительно обученную модель word2vec (gensim)? Я использую предварительно обученные веса в слое встраивания в керас: какой смысл "замораживать" (не поддающийся обучению) этот слой, так как он не имеет никакого значения в отношении точности в моем случае?

Я попробовал оба представления, и, похоже, нет разницы в точности моих данных испытаний. Наивысшая точность, которую я достиг, была правильно предсказана на 55%.

Я на правильном пути или это неправильный подход для выполнения этой задачи? Моя машина работает очень медленно, что делает эксперименты с параметрами такими сложными и трудоемкими.

Буду признателен за любой совет или совет!

1 Ответ

0 голосов
/ 27 июня 2018

Будет ли это иметь значение? Да, конечно, но только в той степени, в которой 90 слов у вас есть в вашем словаре. Преимущество использования word2vec с замораживанием состоит в том, что ваша модель может заполнять предложения словами, которые она видела ранее, но может быть похожа на то, чему она обучалась.

В чем смысл замораживания? Word2vec был обучен на миллионах токенов, но у вас есть только 90 из них в вашем наборе данных. Так что, если вы не заморозите, ваша модель изменит только 90 слов, которые могут потерять их связь с другими словами. Например, если у вас есть телевидение , но не ТВ , то значение телевидение может измениться относительно ТВ в зависимости от вашего набора данных.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...