Почему в pytorch нет встроенного флага в F.sigmoid? - PullRequest
1 голос
/ 10 апреля 2019

Оба relu, leakyrelu имеют inplace флаг, так почему бы не sigmoid?

Signature: F.sigmoid(input)

F.relu(input, inplace=False)

1 Ответ

1 голос
/ 10 апреля 2019

Согласно документам:

nn.functional.sigmoid устарело.Вместо этого используйте torch.sigmoid.

Вот пример с sigmoid.Я не уверен, работает ли он так же, как операция на месте, но вы можете попробовать что-то вроде этого:

Код:

import torch

a = torch.randn(5)
print(a)

torch.sigmoid(a, out=a)
print(a)

Вывод:

tensor([-0.6651,  1.2416, -0.6720,  0.4406, -0.3336])
tensor([0.3396, 0.7758, 0.3381, 0.6084, 0.4174])

сигмовидная документация

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...