Я получаю
RuntimeError: CUDA out of memory. Tried to allocate 86.00 MiB (GPU 0; 14.73 GiB total capacity; 13.74 GiB already allocated; 31.88 MiB free; 13.81 GiB reserved in total by PyTorch)
, когда пытаюсь загрузить предварительно подготовленную модель Берта, используя
model = BertModel.from_pretrained("bert-base-cased")
Когда я запускаю
!nvidia-smi
torch.cuda.empty_cache()
!nvidia-smi
, я получаю следующее вывод: 
Что ясно показывает, что мой графический процессор почти заполнен. Но когда я запускаю %whos
, я не получаю никаких активных переменных, как показано на следующем рисунке 
Я не понимаю, нет ли активных переменных, тогда почему мой графический процессор заполнен? И что еще более важно, как я могу освободить это?
PS: «Время сброса к заводским настройкам» для меня не вариант, так как я распаковываю загрузку данных, которая занимает некоторое время. Я просто хочу очистить все мои переменные RAM и GPU и сохранить данные dis c (т.е. файлы).