У меня есть простой алгоритм word2vec, который использует тензор потока: tf.nn.embedded_lookup .Вот его подпись.
tf.nn.embedding_lookup(
params,
ids,
partition_strategy='mod',
name=None,
validate_indices=True,
max_norm=None
)
Аргументы:
params: A single tensor representing the complete embedding tensor, or a list of P tensors all of same shape except for the first dimension, representing sharded embedding tensors. Alternatively, a PartitionedVariable, created by partitioning along dimension 0. Each element must be appropriately sized for the given partition_strategy.
ids: A Tensor with type int32 or int64 containing the ids to be looked up in params.
Вывод: одиночный тензор представляет полный тензор вложения.
Я хотел бы реализовать этот алгоритм word2vec с помощью tflearn: tflearn.layers.embedding_ops.embedding подпись
tflearn.layers.embedding_ops.embedding(
incoming,
input_dim,
output_dim,
validate_indices=False,
weights_init='truncated_normal',
trainable=True,
restore=True,
reuse=False,
scope=None,
name='Embedding')
Args:
incoming: Incoming 2-D Tensor.
input_dim: list of int. Vocabulary size (number of ids).
output_dim: list of int. Embedding size.
Вывод: 3-D тензор [samples, embedded_ids, features].
Как можноЯ интерпретирую вывод из tflearn так, чтобы он был параллелен выводу из tf.nn .
Как я могу построить полную встроенную матрицу из образцов, идентификаторов и функций