Как рассчитать метрики оценки данных обучения в API обнаружения объектов TensorFlow? - PullRequest
0 голосов
/ 18 января 2019

Я уже давно использую api детектора объектов, так что тренировать модели и использовать их для вывода - это хорошо. К сожалению, при использовании TensorBoard для визуализации метрик (таких как mAP, AR, классификация / потеря локализации) мы видим эти метрики только в наборе валидации. Я хотел бы рассчитать вышеупомянутые показатели также во время обучения, чтобы мы могли сравнить показатели обучения / проверки на Tensorboard.

edit: я наткнулся на этот пост, в котором рассматривается одна и та же проблема , как проверить оба результата обучения / eval в тензорном потоке object_detection

Кто-нибудь получил указатель на то, как этого добиться?

1 Ответ

0 голосов
/ 23 января 2019

Вы можете оценить свою модель по данным обучения, добавив аргументы --eval_training_data=True --sample_1_of_n_eval_on_train_examples=10 к аргументам model_main. Тем самым вы даете ему указание выполнить оценку данных обучения и выбрать, насколько сильно разбавить данные обучения, отправленные на оценку, поскольку обычно объем данных обучения очень велик. Дело в том, что я не думаю, что в настоящее время можно оценить как обучение на данных валидации, но я не думаю, что это слишком плохо, поскольку обычно оценка данных тренинга проводится только для проверки работоспособности, а не для фактической непрерывной оценки. модель.

...