loss.backward()
эквивалент в тензорном потоке tf.GradientTape()
. TensorFlow предоставляет tf.GradientTape
API для автоматического c дифференцирования - вычисления градиента вычисления относительно его входных переменных. Tensorflow «записывает» все операции, выполняемые в контексте tf.GradientTape
, на «ленту». Затем Tensorflow использует эту ленту и градиенты, связанные с каждой записанной операцией, для вычисления градиентов «записанного» вычисления с использованием обратного дифференцирования.
optimizer.step()
эквивалент в тензорном потоке minimize()
. Минимизирует потери за счет обновления списка переменных. Вызов minimize()
заботится как о вычислении градиентов, так и о применении их к переменным.
Если вы хотите обработать градиенты перед их применением, вы можете вместо этого использовать оптимизатор в три этапа:
- Вычислить градиенты с помощью
tf.GradientTape
. - Процесс градиенты, как вы wi sh.
- Примените обработанные градиенты с
apply_gradients()
.
Надеюсь, это ответит на ваш вопрос. Удачного обучения.