когда нужно удалить t.watch (x), используя [с tf.GradientTape () как t]? - PullRequest
0 голосов
/ 24 марта 2019

Я видел t.watch (x) при использовании с tf.GradientTape () как t (https://www.tensorflow.org/tutorials/eager/automatic_differentiation)

)

Но в https://www.tensorflow.org/tutorials/eager/custom_training_walkthrough#define_the_loss_and_gradient_function

нет t.watch (x)

например:

def grad(model, inputs, targets):
  with tf.GradientTape() as tape:
    loss_value = loss(model, inputs, targets)
  return loss_value, tape.gradient(loss_value, model.trainable_variables)

Когда нужно использовать t.watch (x), а когда нет и почему?

...