У меня есть сложная rnn модель, написанная в тензорном потоке для multigpu обучения. Когда я запускаю свой код tf , построение графика происходит в разумные сроки.
Но когда я вызываю sess.run
для запуска графика, optimiser.compute_gradients занимает много времени для запуска первого шага, но становится намного быстрее (примерно в 10 раз быстрее) для последующих шагов. Каждая партия в моем наборе данных имеет одинаковую форму.
Почему это происходит?
Спасибо