Это неправильное соглашение об именах:
logits
должно входить в softmax
или log_softmax
(log
из softmax
).
Эти две строки эквивалентны:
r = F.nll_loss(F.log_softmax(a, -1), p)
r = F.cross_entropy(a, p)
Вы ищете F.cross_entropy
в PyTorch или
tf.nn.softmax_cross_entropy_with_logits
в tf