Почему torch.functional.sigmoid и torch.nn.functional.relu не рекомендуются как torch.nn.functional.tanh? - PullRequest
1 голос
/ 23 июня 2019

Теперь, когда torch.autograd.Variable объединен с torch.tensor и устарел, почему они исключают некоторые функции в torch.nn.functional, но не другие?А именно, tanh устарела, но не sigmoid или relu.

>>> torch.__version__
'1.1.0'
>>> u
tensor(2., grad_fn=<MeanBackward0>)
>>> torch.nn.functional.tanh(u)
C:\Users\mlearning\AppData\Local\Continuum\anaconda3\lib\site-packages\torch\nn\functional.py:1374: UserWarning: nn.functional.tanh is deprecated. Use torch.tanh instead.
  warnings.warn("nn.functional.tanh is deprecated. Use torch.tanh instead.")
tensor(0.9640, grad_fn=<TanhBackward>)   
>>> torch.nn.functional.sigmoid(u)
tensor(0.8808, grad_fn=<SigmoidBackward>)    
>>> torch.nn.functional.relu(u)
tensor(2., grad_fn=<ReluBackward0>)

Есть ли разница между torch.nn.functional.relu и torch.relu, или я могу использовать их взаимозаменяемо?

1 Ответ

0 голосов
/ 23 июня 2019

Вы можете проверить этот поток , где один из немногих главных разработчиков PyTorch (фактически создатель) устанавливает директиву.

Вы также можете проверить обоснование. Кроме того, вы можете предложить то же самое для двух других функций.

Другой должен также устареть.

...