Как и многие другие, я получаю ошибку времени выполнения Cuda из-за нехватки памяти, но по какой-то причине pytorch зарезервировал большую ее часть.
RuntimeError: CUDA не хватает памяти. Пытался выделить 2,00 МиБ (GPU 0; 6,00 ГиБ общая емкость; 4,31 ГиБ уже выделено; 844,80 КиБ свободно; 4,71 ГиБ зарезервировано всего PyTorch)
Я пробовал torch.cuda.empy_cache (), но это тоже не работает, и никакие другие сообщения CUDA о нехватке памяти мне тоже не помогли.
Когда я проверил использование своего графического процессора (nvidia-smi) перед запуском моей программы python, он много бесплатно.