Pytorch - несколько графических процессоров - PullRequest
2 голосов
/ 09 января 2020

У меня довольно большая сеть, которая требует много памяти GPU. У меня есть 4 графических процессора, и я использую nn.DataParallel. Когда я определяю размер пакета 4 (1 вход для каждого графического процессора), моим графическим процессорам не хватает памяти. Я попытался torch.cuda.empty_cache() и удалил все ненужные данные из графических процессоров, но этого было недостаточно.

Я ищу способ обработать 4 графических процессора как 2 графических процессора с двойной памятью, чтобы я мог использовать размер пакета 2 (1 вход для двух графических процессоров). Есть ли способ сделать это?

Спасибо.

...