Получение выходных метрик из COCOEvaluator от Detectron2 - PullRequest
0 голосов
/ 25 апреля 2020

Метрики из стандартного выхода гораздо полезнее, чем выходные данные, записанные в выходной папке.

Standard out

metrics.json и coco_instances_results.json

enter image description here

def test(instance, cfg, trainer, test_instance):  
  cfg.MODEL.WEIGHTS = os.path.join(cfg.OUTPUT_DIR, "model_final.pth")
  cfg.MODEL.ROI_HEADS.SCORE_THRESH_TEST = 0.7   # TODO What is this
  cfg.DATASETS.TEST = (test_instance, )
  predictor = DefaultPredictor(cfg)
  evaluator = COCOEvaluator(test_instance, cfg, False, output_dir=cfg.OUTPUT_DIR)
  val_loader = build_detection_test_loader(cfg, test_instance)
  result = inference_on_dataset(trainer.model, val_loader, evaluator)

Как получить такие данные, как Среднее разрешение для ioU = 0,5 или для каждой категории bbox AP?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...