Я прочитал эти коды на github:
# loss1, loss2 belong to the same net
net.zero_grad()
loss1 = ...
loss2 = ...
loss1.backward()
loss2.backward()
optim.step()
, который не упоминается методом BP на официальном сайте pytorch, а официальная документация упоминает Computes the gradient of current tensor w.r.t. graph leaves.
для tensor.backward
.
Такдругие градиенты ожидают, что два тензора потерь не вычисляются?А какие тензоры не обновляются?