Предположим, я создал тензор и поместил его в графический процессор, и позже он мне не нужен, и хочу освободить выделенную ему память графического процессора; Как мне это сделать?
import torch
a=torch.randn(3,4).cuda() # nvidia-smi shows that some mem has been allocated.
# do something
# a does not exist and nvidia-smi shows that mem has been freed.
Я пробовал:
del a
del a; torch.cuda.empty_cache()
Но ни один из них не работает.