Я должен произвести модель ответа на вопрос PyTorch BERT.Процесс загрузки процессора очень медленный для меня, так как для каждого запроса модель должна оценивать 30 выборок.Из результатов этих 30 выборок я выбираю ответ с максимальной оценкой.Мне будет слишком дорого использовать графический процессор для вывода.
Можно ли использовать для этого многопроцессорный / параллельный вывод процессора?Если да, то как лучше это делать?Если Нет, есть ли облачная опция, которая выставляет мне счет только за запросы графического процессора, которые я делаю, а не за непрерывный запуск экземпляра графического процессора?