Есть ли какая-то функция, которую можно использовать вместо «prepare_attention» в Tensor-flow V 1.13.1 - PullRequest
0 голосов
/ 06 апреля 2019

Я сталкиваюсь с этой ошибкой "AttributeError: module 'tensorflow.contrib.seq2seq' has no attribute 'prepare_attention'" при попытке создать чат-бота с использованием Python 3.7 и Tensor-Flow v 1.13.1 .Я искал об этом и узнал, что эта функция использовалась только в TF 1.0.0 , хотя я не нашел никакой замены этого.Я просто хотел подтвердить, что никакая другая функция не может быть использована вместо этой функции?

def decode_training_set(encoder_state, decoder_cell, 
decoder_embedded_input, sequence_length, decoding_scope, output_function, 
keep_prob, batch_size):

   attention_states = tf.zeros([batch_size, 1, decoder_cell.output_size])

   attention_keys, attention_values, attention_score_function, 
   attention_construct_function = 
   tf.contrib.seq2seq.prepare_attention(attention_states, attention_option 
   = "bahdanau", num_units = decoder_cell.output_size)
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...