Я следовал инструкциям с этого веб-сайта https://colab.research.google.com/drive/16jcaJoc6bCFAQ96jDe2HwtXj7BMD_-m5#scrollTo = U5LhISJqWXgM . Возникает вопрос: были изображения, содержащие слово «человек» и многие другие экземпляры, но почему они не были обнаружены и сегментированы?
from detectron2.utils.visualizer import ColorMode
dataset_dicts = get_balloon_dicts("balloon/val")
for d in random.sample(dataset_dicts, 3):
im = cv2.imread(<CUSTOM_IMAGE_CONTAINING_PERSON_DETECTED_WHEN_CUSTOM_WASNT_USED>) <--changed
outputs = predictor(im)
v = Visualizer(im[:, :, ::-1],
metadata=balloon_metadata,
scale=0.8,
instance_mode=ColorMode.IMAGE_BW # remove the colors of unsegmented pixels
)
v = v.draw_instance_predictions(outputs["instances"].to("cpu"))
cv2_imshow(v.get_image()[:, :, ::-1])
После загрузки пользовательской фотографии, содержащей людей, я выполнил вывод изображения в соответствии с инструкциями под Запустите предварительно обученную модель detectron2 , используя модель, которую они использовали (model_zoo.get_checkpoint_url ("COCO-InstanceSegmentation / mask_rcnn_R_50_FPN_3x.yaml")), но когда я использую обученную модель воздушных шаров, она не обнаруживает люди на изображении (порог не был проблемой, поскольку я использовал 0,5 в обоих случаях). Почему это так и как мне показать все примеры? Помощь будет принята с благодарностью: D