Я просто играю с pytorch и мне интересно, почему он потребляет столько памяти моего GPU?
Я использую Cuda 10.0 с pythorch 1.2.0 и torchvision 0.4.0.
import torch
gpu = torch.device("cuda")
x = torch.ones(int(4e8), device=gpu)
y = torch.ones(int(1e5), device=gpu)
При выполнении кода выше я получаю сообщение об ошибке: RuntimeError: CUDA не хватает памяти.Попытка выделить 2,00 МБ (GPU 0; общая емкость 2,00 ГБ; 1,49 ГБ уже выделено; 0 байт свободно; 0 байт кэшировано)
Итак, нужно ли pytorch ~ 500 МБ памяти gpu в качестве служебной информации?Или в чем тут проблема?