InceptionV3 квантование обучения и логического вывода - PullRequest
0 голосов
/ 19 апреля 2019

Я настроил обучение с учетом квантования для Inception-V3, используя tf-slim с нуля на imagenet.Я вижу, как в сети на Tensorboard вставлены фальшивые операции квантования.Я использую сценарии по умолчанию, предоставляемые библиотекой tf-slim - train_image_classifer.py, eval_image_classifier.py с num_clones=2 для обучения и quantize = True.Я пытаюсь оценить производительность квантованного Inception-V3 в ImageNet.

Я использовал два подхода:

  1. Использование сценария eval_image_classifer.py по умолчанию для оценкис slim.evaluation.evaluate_once () с quantize = True и 'is_training = False'.Я сталкиваюсь с Key InceptionV3/AuxLogits/Conv2d_1b_1x1/act_quant/max not found in checkpoint ошибкой.Когда я проверяю свою контрольную точку, я вижу, что к указанному выше слою добавляется идентификатор клона.По сути, то, что я вижу в настоящем, это clone_0/InceptionV3/AuxLogits/Conv2d_1b_1x1/act_quant/max.Есть ли способ пропустить идентификатор клона при синтаксическом анализе контрольной точки?

  2. Использование специального сценария для остановки контрольной точки - я использовал начальную настройку по умолчанию-V3 export_inference_graph.py с quantize = True ииспользовал это в качестве ссылки pb, чтобы заморозить и преобразовать мою контрольную точку.Я сталкиваюсь с ошибкой - InceptionV3/AuxLogits/Conv2d_1b_1x1/weights_quant/max_0_252 не найден в контрольной точке.Я предполагаю, что диапазон добавляется к имени слоя.Есть ли обходной путь для этого?

Любая помощь приветствуется.Спасибо!

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...