Есть ли в tflearn замена для tf.nn.embedding_lookup? - PullRequest
0 голосов
/ 01 октября 2018

У меня есть простой алгоритм word2vec, который использует тензор потока: tf.nn.embedded_lookup .Вот его подпись.

tf.nn.embedding_lookup(
    params,
    ids,
    partition_strategy='mod',
    name=None,
    validate_indices=True,
    max_norm=None
)

Аргументы:

params: A single tensor representing the complete embedding tensor, or a list of P tensors all of same shape except for the first dimension, representing sharded embedding tensors. Alternatively, a PartitionedVariable, created by partitioning along dimension 0. Each element must be appropriately sized for the given partition_strategy.

ids: A Tensor with type int32 or int64 containing the ids to be looked up in params.

Вывод: одиночный тензор представляет полный тензор вложения.

Я хотел бы реализовать этот алгоритм word2vec с помощью tflearn: tflearn.layers.embedding_ops.embedding подпись

tflearn.layers.embedding_ops.embedding(
     incoming,
     input_dim,
     output_dim,
     validate_indices=False, 
     weights_init='truncated_normal',
     trainable=True,
     restore=True,
     reuse=False,
    scope=None,
    name='Embedding')

Args:

incoming: Incoming 2-D Tensor. input_dim: list of int. Vocabulary size (number of ids). output_dim: list of int. Embedding size.

Вывод: 3-D тензор [samples, embedded_ids, features].

Как можноЯ интерпретирую вывод из tflearn так, чтобы он был параллелен выводу из tf.nn .

Как я могу построить полную встроенную матрицу из образцов, идентификаторов и функций

...