почему время вывода SSD для меньшего изображения длиннее, чем для большого изображения при использовании графического процессора - PullRequest
0 голосов
/ 26 мая 2019

Я обнаружил, что время вывода SSD на меньшем изображении длиннее, чем на большом изображении при использовании графического процессора , и не знаю почему.

Я изучаю код SSD_tensorflow на https://github.com/balancap/SSD-Tensorflow, Я изменил feat_shapes в сетевом коде, чтобы я мог тестировать изображения разных размеров, когда я записал время вывода vgg_ssd300, я обнаружил любопытное явление:

время выводаизображения (720 * 1280) короче, чем изображение (300 * 760)

Я очень растерялся, поэтому провел несколько тестов и обнаружил:

  1. , когда отношение длины к ширине близко к 1: 2, время вывода будет чрезвычайно большим, даже больше, чем изображение, которое имеет больший размер, но отношение длины к ширине составляет 1: 1

    мой результат теста:

    т (720, 1280, 3) <т (306, 763, 3) </p>

    т (720, 1280, 3) <т (308, 665,3) </p>

    т (720, 1280, 3) <т (307, 1144, 3) </p>

    т (720, 1280, 3) <т (302, 739, 3) </p>

  2. это произошло только на GPU.На процессоре, каким бы ни было отношение длины к ширине, время увеличивается, когда размер изображения больше.

Кто-нибудь обнаружил эту проблему?

...