Я настроил обучение с учетом квантования для Inception-V3, используя tf-slim
с нуля на imagenet.Я вижу, как в сети на Tensorboard вставлены фальшивые операции квантования.Я использую сценарии по умолчанию, предоставляемые библиотекой tf-slim
- train_image_classifer.py
, eval_image_classifier.py
с num_clones=2
для обучения и quantize = True
.Я пытаюсь оценить производительность квантованного Inception-V3 в ImageNet.
Я использовал два подхода:
Использование сценария eval_image_classifer.py по умолчанию для оценкис slim.evaluation.evaluate_once () с quantize = True
и 'is_training = False'.Я сталкиваюсь с Key InceptionV3/AuxLogits/Conv2d_1b_1x1/act_quant/max not found in checkpoint
ошибкой.Когда я проверяю свою контрольную точку, я вижу, что к указанному выше слою добавляется идентификатор клона.По сути, то, что я вижу в настоящем, это clone_0/InceptionV3/AuxLogits/Conv2d_1b_1x1/act_quant/max
.Есть ли способ пропустить идентификатор клона при синтаксическом анализе контрольной точки?
Использование специального сценария для остановки контрольной точки - я использовал начальную настройку по умолчанию-V3 export_inference_graph.py
с quantize = True
ииспользовал это в качестве ссылки pb, чтобы заморозить и преобразовать мою контрольную точку.Я сталкиваюсь с ошибкой - InceptionV3/AuxLogits/Conv2d_1b_1x1/weights_quant/max_0_252
не найден в контрольной точке.Я предполагаю, что диапазон добавляется к имени слоя.Есть ли обходной путь для этого?
Любая помощь приветствуется.Спасибо!