Получение следующей ошибки при попытке использовать RMSProp Optimizer с PyTorch:
AttributeError: module 'torch.optim' has no attribute 'RMSProp'
Код:
import torch as T
import torch.nn as nn
import torch.optim as optim
class DeepQNetwork(nn.Module):
def __init__(self, alpha, ...):
super(DeepQNetwork, self).__init__()
...
self.optimizer = optim.RMSProp(self.parameters(), lr=alpha)
...
Версия PyTorch: 1.5.1
с Python версия 3.6
. Есть документация для torch.optim
и его оптимизаторов, включая RMSProp , но PyCharm предлагает только Adam и SGD, и действительно кажется, что все другие оптимизаторы отсутствуют.
У кого-нибудь есть идея? Я не нашел ничего на inte rnet, и это начинает сводить меня с ума.
Предложение от PyCharm