В PyTorch, как сделать так, чтобы потоки CUDA выполнялись параллельно? - PullRequest
0 голосов
/ 01 ноября 2018

Я пытаюсь запустить ансамбль небольших моделей, и в настоящее время я называю model.forward в цикле. Я заметил, что загрузка графического процессора была низкой, поэтому я начал использовать torch.cuda.Stream, чтобы попытаться запустить несколько моделей параллельно. Однако я не замечаю ускорения, и использование GPU остается прежним. Я использую GTX 1070, так что я знаю, что это можно сделать, есть ли что-то особенное, что необходимо включить для параллельного запуска нескольких моделей?

...