Pytorch Multi GPU распределенного DataParallel не работает - PullRequest
0 голосов
/ 22 марта 2020

Я пытаюсь запустить 2 GPU с факелом Tranning.

from apex.parallel import DistributedDataParallel as DDP

   #multi gpu
    os.environ["CUDA_VISIBLE_DEVICES"] = '0, 1'

    torch.distributed.init_process_group(backend='nccl',
                                             init_method='env://')
    #model = nn.DataParallel(model, output_device=1)
    model = DDP(model, delay_allreduce=True)

Я добавил эту группу init_process_group и DDP 1. это не работает без ошибок 2. и я не знаю, что означают backend и init_method

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...