Я хочу преобразовать выходную метку в распределение и принудительно распределить его в нужные значения через потерю дивергенции KL. Хотя я могу сделать это для l oop или numpy.histogram
, градиент потерян, и у меня появляется следующая ошибка:
RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn
Есть ли альтернатива numpy.histogram
в pytorch? Или любой подобный подход работоспособен при выполнении loss.backward()
?