Как вы, возможно, знаете, при построении модели нейронной сети с пропуском грамм мы используем tf.nn.embedding_lookup()
, чтобы получить вложения, подходящие для ввода batch_size
(я могу ошибаться). Если это так, то почему бы нам просто не создать вложения, которые уже подходят для нашего batch_size
вместо ручного выбора embedding_size
вручную?
Например, почему бы нам не создать embeddings = tf.Variable(tf.random_uniform([vocabulary_size, batch_size], -1.0, 1.0))
и не использовать функцию tf.nn.embedding_lookup
при создании нашей нейронной сети.
Вместо того, чтобы выбирать embedding_size = 128
и embeddings = tf.Variable(tf.random_uniform([vocabulary_size, embedding_size, -1.0, 1.0))
тогда используйте embed = tf.nn.embedding_lookup(embeddings, train_dataset)
?
Надеюсь, я четко объяснил вопрос.