Короче говоря :
Я не могу нарисовать кривую lr / epoch при использовании оптимизатора adadelta в pytorch, потому что optimizer.param_groups[0]['lr']
всегда возвращает одно и то же значение.
Подробно :
Adadelta может динамически адаптироваться во времени, используя только информацию первого порядка, и имеет минимальные вычислительные издержки за пределами ванильного стохастического градиентного спуска [1].
В pytorch, источниккод Adadelta здесь https://pytorch.org/docs/stable/_modules/torch/optim/adadelta.html#Adadelta
Поскольку он не требует ручной настройки скорости обучения, насколько мне известно, нам не нужно устанавливать расписание после объявления оптимизатора
self.optimizer = torch.optim.Adadelta(self.model.parameters(), lr=1)
Способ проверки скорости обучения:
current_lr = self.optimizer.param_groups[0]['lr']
Проблема в том, что он всегда возвращает 1 (начальный lr).
Может кто-нибудь сказать мне, как я могу получить истинную скорость обучения, чтобы я мог нарисовать кривую lr / epch?
[1] https://arxiv.org/pdf/1212.5701.pdf