Я встретил странный cuDNN error: CUDNN_STATUS_INTERNAL_ERROR
, когда запустил функцию nn.ConvTranspose2d
в gpu-cluster. Коды, такие как: (в режиме отладки ipdb)
my_func = nn.Sequential(nn.ConvTranspose2d(128, 64, kernel_size=(2, 2), stride=(2, 2))).cuda()
my_input = torch.randn(8, 128, 128, 80).cuda()
print(my_func(my_input).shape)
Я не уверен, так ли это, потому что nn.ConvTranspose2d
не может обработать странный размер пространства (128, 80).
После того, как я изменилпространственный размер до (64,64), без ошибок. Я думаю, что нет проблем со средой pytorch, с pytorch=1.0.1
и cuda=9.0
.
Решения для cuDNN error: CUDNN_STATUS_INTERNAL_ERROR
также не работали, например, rm -rf ~/.nv
Кажется, проблема, скорее всего, связана с неправильным входным пространственным размером. Есть ли какие-либо ограничения в отношении nn.ConvTranspose2d
?
Кроме того, когда я пытаюсь запустить вышеупомянутые коды в командной строке после выполнения python
, также не сообщается об ошибке. Когда я использую тот же (128, 80) пространственный размер, но kernel_size=(3,3)
, нет проблем.
Есть какие-нибудь предложения? Спасибо