Ошибка выполнения CUDA из памяти, в любом случае, чтобы удалить pytorch «зарезервированная память» - PullRequest
0 голосов
/ 07 августа 2020

Как и многие другие, я получаю ошибку времени выполнения Cuda из-за нехватки памяти, но по какой-то причине pytorch зарезервировал большую ее часть.

RuntimeError: CUDA не хватает памяти. Пытался выделить 2,00 МиБ (GPU 0; 6,00 ГиБ общая емкость; 4,31 ГиБ уже выделено; 844,80 КиБ свободно; 4,71 ГиБ зарезервировано всего PyTorch)

Я пробовал torch.cuda.empy_cache (), но это тоже не работает, и никакие другие сообщения CUDA о нехватке памяти мне тоже не помогли.

Когда я проверил использование своего графического процессора (nvidia-smi) перед запуском моей программы python, он много бесплатно.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...