Основным отличием является то, что функции, перечисленные в Нелинейные активации (взвешенная сумма, нелинейность) выполняют только пороговое значение и не нормализуют выход. (т.е. результирующий тензор не обязательно должен обязательно суммировать до 1, либо в целом, либо вдоль некоторых указанных осей / dim
расширений)
Пример нелинейности:
nn.ReLU
nn.Sigmoid
nn.SELU
nn.Tanh
Принимая во внимание, что нелинейности, перечисленные в Нелинейные активации (другие) выполняют пороговое значение и нормализацию (т.е. результирующий тензор суммирует до 1, либо для всего тензора, если не указана ось / dim
ension; или вдоль указанных осей / dim
ensions)
Пример нелинейности: ( обратите внимание на нормализующий член в знаменателе )

Однако, за исключением nn.LogSoftmax()
, для которого результирующий тензор не суммирует до 1, так как мы применяем log к выходу softmax.