Почему мы выбираем размер встраивания в модель нейронной сети скип-грамматики word2vec? - PullRequest
0 голосов
/ 30 октября 2018

Как вы, возможно, знаете, при построении модели нейронной сети с пропуском грамм мы используем tf.nn.embedding_lookup(), чтобы получить вложения, подходящие для ввода batch_size (я могу ошибаться). Если это так, то почему бы нам просто не создать вложения, которые уже подходят для нашего batch_size вместо ручного выбора embedding_size вручную?

Например, почему бы нам не создать embeddings = tf.Variable(tf.random_uniform([vocabulary_size, batch_size], -1.0, 1.0)) и не использовать функцию tf.nn.embedding_lookup при создании нашей нейронной сети.

Вместо того, чтобы выбирать embedding_size = 128 и embeddings = tf.Variable(tf.random_uniform([vocabulary_size, embedding_size, -1.0, 1.0)) тогда используйте embed = tf.nn.embedding_lookup(embeddings, train_dataset)?

Надеюсь, я четко объяснил вопрос.

...