Я довольно новичок в TensorFlow. Я изо всех сил пытаюсь понять, как TF включает градиенты в переменные для LSTM (при использовании градиентного приличного оптимизатора).
Когда я вызываю tf.trainable_variables()
во время первой итерации и tf.gradients()
во время второй итерации я должен быть в состоянии вычислить tf.trainable_variables()
права второй итерации (умножив градиент на скорость обучения)?
Как я понял в теории, обновленный вес равен предварительно обновленному весу за вычетом градиента этого веса (относительно потери), умноженного на скорость обучения. Однако, когда я делаю это для ячейки BasicLSTM с DynamicRNN, это не так.