Как бороться с 'CUDA вне памяти' под pytorch? - PullRequest
1 голос
/ 27 апреля 2019

Я натренировал свою сеть. Я проверял это. Это хорошо работало, когда я сохранял каждое изображение в файле. Однако, когда я попытался сохранить их в файле .tif, он выбросил «CUDA out of memory». Как с этим справиться?

Я использую Pytorch, чтобы натренировать свою сеть и проверить ее. Затем я хочу использовать torch.cat, чтобы объединить все результаты моих испытаний в один и сохранить его в виде файла .tif. Выкинул ошибку.

img = []
for i, data in enumerate(testloader, 0):
    data = data.cuda()
    outputs = torch.sign(net(data)-0.5)*255
    outputs.squeeze_(0)
    outputs = outputs.cpu()
    img.append(outputs)
    imgTosave = torch.cat(img)
io.imsave("./data/label.tif", imgTosave.byte().numpy())

Когда он запускается три раза и сталкивается с

outputs = torch.sign(net(data)-0.5)*255',the error happens.

при удалении:

img.append(outputs)
imgTosave = torch.cat(img)
io.imsave("./data/label.tif", imgTosave.byte().numpy())

все будет хорошо. Это сводит меня с ума, я хочу знать, почему это произошло.

1 Ответ

0 голосов
/ 02 июля 2019

вы можете использовать google colab для обучения вашей модели, а также вы можете поместить свой набор данных на диск google, а затем связать этот набор данных с вашим кодом, он обеспечит больше памяти с помощью gpu, затем загрузить вашу обученную модель локально и использовать эту модель в своем коде.

https://colab.research.google.com/

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...