Я видел t.watch (x) при использовании с tf.GradientTape () как t (https://www.tensorflow.org/tutorials/eager/automatic_differentiation)
Но в https://www.tensorflow.org/tutorials/eager/custom_training_walkthrough#define_the_loss_and_gradient_function
например:
def grad(model, inputs, targets): with tf.GradientTape() as tape: loss_value = loss(model, inputs, targets) return loss_value, tape.gradient(loss_value, model.trainable_variables)
Когда нужно использовать t.watch (x), а когда нет и почему?