У меня довольно большая сеть, которая требует много памяти GPU. У меня есть 4 графических процессора, и я использую nn.DataParallel
. Когда я определяю размер пакета 4 (1 вход для каждого графического процессора), моим графическим процессорам не хватает памяти. Я попытался torch.cuda.empty_cache()
и удалил все ненужные данные из графических процессоров, но этого было недостаточно.
Я ищу способ обработать 4 графических процессора как 2 графических процессора с двойной памятью, чтобы я мог использовать размер пакета 2 (1 вход для двух графических процессоров). Есть ли способ сделать это?
Спасибо.