Эквивалент tf.embedding_lookup () в pytorch - PullRequest
0 голосов
/ 27 марта 2020

Допустим, у меня есть этот код в тф. Я хочу переписать его в pytorch

self.W = tf.v1.get_variable("W",dtype=tf.v1.float32,
                                            initializer=tf.v1.constant(self.params['wordvectors'].astype('float32')))
self.input_support_set_sents = tf.v1.placeholder(tf.v1.int32,
                                                         [None, None, sen_len],
                                                         'support_set_sents')
self.support_set_sents = tf.v1.nn.embedding_lookup(self.W, self.input_support_set_sents)

Пока что у меня есть это:

  self.W = torch.tensor(config['wordvectors'], dtype=torch.float32)
   # input_support_set_sents passed by arg
  self.support_set_sents = None

embedding_lookup () в tf в основном берет все слова из второго параметра и возвращает их вырастающее valeus из первого аргумент.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...