AttributeError: модуль torch.optim не имеет атрибута RMSProp - PullRequest
0 голосов
/ 19 июня 2020

Получение следующей ошибки при попытке использовать RMSProp Optimizer с PyTorch:

AttributeError: module 'torch.optim' has no attribute 'RMSProp'

Код:

import torch as T
import torch.nn as nn
import torch.optim as optim

class DeepQNetwork(nn.Module):

  def __init__(self, alpha, ...):
    super(DeepQNetwork, self).__init__()
    ...
    self.optimizer = optim.RMSProp(self.parameters(), lr=alpha)
    ...

Версия PyTorch: 1.5.1 с Python версия 3.6. Есть документация для torch.optim и его оптимизаторов, включая RMSProp , но PyCharm предлагает только Adam и SGD, и действительно кажется, что все другие оптимизаторы отсутствуют.

У кого-нибудь есть идея? Я не нашел ничего на inte rnet, и это начинает сводить меня с ума.

Предложение от PyCharm

1 Ответ

1 голос
/ 19 июня 2020

RMSprop (как видно в документации) вместо RMSProp. Так что это опечатка.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...