Я использую предварительно обученную модель для обучения настраиваемому набору данных с использованием API обнаружения объектов TensorFlow.Для этой цели я выбрал модель Faster_RCNN_inception_v2_pets и провел обучение, используя model_main.py, чтобы одновременно проводить обучение и оценку.
python model_main.py --pipeline_config_path=training/faster_rcnn_inception_v2_pets.config --model_dir=training/ --sample_1_of_n_eval_examples=1 --alsologtostderr
Я использую метрики PAScal_VOC для оценки.Тем не менее, я заинтересован в том, чтобы иметь как потери при обучении, так и при проверке, и иметь возможность сравнивать их, но все, что дает тензорборад, - это потери при обучении, ограничивающий прямоугольник IOU AP, сравнение проверочных изображений с прогнозируемыми и суммарными потерями, а затем в концепотеря.Я прочитал некоторые ресурсы о том, как включить потерю проверки, как в здесь , здесь , но я понятия не имею, к какому файлу я должен прикрепить эти строки кода или даже к какому файлуредактировать в моей папке.Какие-либо предложения?