Очистка устройств при использовании оценщика Tensorflow export_savedmodel - PullRequest
0 голосов
/ 20 марта 2019

У меня есть пользовательский оценщик, который обучается.Затем модель сохраняется с помощью:

estimator.export_savedmodel()

Я тренируюсь на экземпляре GPU и ищу выполнение / вывод на экземпляре CPU.Кажется, что использование export_savedmodel сохраняет информацию об устройстве, и когда я пытаюсь сделать вывод об экземпляре CPU, я получаю сообщение об ошибке.

Я провел некоторые исследования, и похоже, что установка флага clear_devices - этоспособ преодолеть эту проблему.Однако я не могу понять, где добавить этот флаг.Я не создаю экземпляр сеанса вручную для запуска своего кода, поэтому многие решения, которые я нашел в Интернете (добавление этого флага при сохранении или при загрузке модели), не работают для меня.

I 'm загрузка модели с использованием tf.contrib.predictor.from_saved_model

Возможно ли использовать флаг clear_devices с моими существующими настройками кода (сохранение с использованием estimator.export_savedmodel() и загрузка с использованием tf.contrib.predictor.from_saved_model)?Если да, как я могу это сделать?

...