Теперь, когда torch.autograd.Variable
объединен с torch.tensor
и устарел, почему они исключают некоторые функции в torch.nn.functional
, но не другие?А именно, tanh
устарела, но не sigmoid
или relu
.
>>> torch.__version__
'1.1.0'
>>> u
tensor(2., grad_fn=<MeanBackward0>)
>>> torch.nn.functional.tanh(u)
C:\Users\mlearning\AppData\Local\Continuum\anaconda3\lib\site-packages\torch\nn\functional.py:1374: UserWarning: nn.functional.tanh is deprecated. Use torch.tanh instead.
warnings.warn("nn.functional.tanh is deprecated. Use torch.tanh instead.")
tensor(0.9640, grad_fn=<TanhBackward>)
>>> torch.nn.functional.sigmoid(u)
tensor(0.8808, grad_fn=<SigmoidBackward>)
>>> torch.nn.functional.relu(u)
tensor(2., grad_fn=<ReluBackward0>)
Есть ли разница между torch.nn.functional.relu
и torch.relu
, или я могу использовать их взаимозаменяемо?