У меня есть пользовательский оценщик, который обучается.Затем модель сохраняется с помощью:
estimator.export_savedmodel()
Я тренируюсь на экземпляре GPU и ищу выполнение / вывод на экземпляре CPU.Кажется, что использование export_savedmodel
сохраняет информацию об устройстве, и когда я пытаюсь сделать вывод об экземпляре CPU, я получаю сообщение об ошибке.
Я провел некоторые исследования, и похоже, что установка флага clear_devices
- этоспособ преодолеть эту проблему.Однако я не могу понять, где добавить этот флаг.Я не создаю экземпляр сеанса вручную для запуска своего кода, поэтому многие решения, которые я нашел в Интернете (добавление этого флага при сохранении или при загрузке модели), не работают для меня.
I 'm загрузка модели с использованием tf.contrib.predictor.from_saved_model
Возможно ли использовать флаг clear_devices с моими существующими настройками кода (сохранение с использованием estimator.export_savedmodel()
и загрузка с использованием tf.contrib.predictor.from_saved_model
)?Если да, как я могу это сделать?