Я учусь использовать pytorch (0.4.0) для автоматизации вычисления градиента, однако я не совсем понял, как использовать backward () и grad, так как я делаю упражнение, мне нужно вычислить df / dwиспользуя pytorch и делая производную аналитически, возвращая соответственно auto_grad, user_grad, но я не совсем понял использование автоматического дифференцирования, в коде я сделал f.backward () и сделал w.grad, чтобы найти df / dw, кромедва вычисления не соответствуют, если я даже допустил ошибку по производной, он следует графику, который я использую, и коду, который я пытаюсь сделать:
import numpy as np
import torch
import torch.nn.functional as F
def graph2(W_np, x_np, b_np):
W = torch.Tensor(W_np)
W.requires_grad = True
x = torch.Tensor(x_np)
b = torch.Tensor(b_np)
u = torch.matmul(W, x) + b
g = F.sigmoid(u)
f = torch.sum(g)
user_grad = (sigmoid(W_np*x_np + b_np)*(1 - sigmoid(W_np*x_np + b_np))).T*x_np
f.backward(retain_graph=True)
auto_grad = W.grad
print(auto_grad)
print(user_grad)
# raise NotImplementedError("falta completar a função graph2")
# END YOUR CODE
return f, auto_grad, user_grad
тест:
iterations = 1000
sizes = np.random.randint(2,10, size=(iterations))
for i in range(iterations):
size = sizes[i]
W_np = np.random.rand(size, size)
x_np = np.random.rand(size, 1)
b_np = np.random.rand(size, 1)
f, auto_grad, user_grad = graph2(W_np, x_np, b_np)
manual_f = np.sum(sigmoid(np.matmul(W_np, x_np) + b_np))
assert np.isclose(f.data.numpy(), manual_f, atol=1e-4), "f not correct"
assert np.allclose(auto_grad.numpy(), user_grad), "Gradient not correct"