Распараллеливание обучения нескольких разных моделей TensorFlow на одном GPU - PullRequest
0 голосов
/ 17 октября 2018

У меня есть много последовательностей временных рядов (более 500), и для этой конкретной задачи необходимо подготовить отдельный LSTM для каждой последовательности, чтобы делать будущие прогнозы.Последовательное обучение всех 500 моделей крайне неэффективно, тем более что размер пакета для каждой из них равен 1, а загрузка графического процессора составляет ~ 30%.

Есть ли способ одновременно инициализировать и обучать несколько моделей TensorFlow одновременно на одном графическом процессоре?Идея аналогична обучению отдельной модели пакетным данным, за исключением того, что для каждого элемента в пакете используется другая модель.

...