Я обнаружил, что время вывода SSD на меньшем изображении длиннее, чем на большом изображении при использовании графического процессора , и не знаю почему.
Я изучаю код SSD_tensorflow на https://github.com/balancap/SSD-Tensorflow, Я изменил feat_shapes в сетевом коде, чтобы я мог тестировать изображения разных размеров, когда я записал время вывода vgg_ssd300, я обнаружил любопытное явление:
время выводаизображения (720 * 1280) короче, чем изображение (300 * 760)
Я очень растерялся, поэтому провел несколько тестов и обнаружил:
, когда отношение длины к ширине близко к 1: 2, время вывода будет чрезвычайно большим, даже больше, чем изображение, которое имеет больший размер, но отношение длины к ширине составляет 1: 1
мой результат теста:
т (720, 1280, 3) <т (306, 763, 3) </p>
т (720, 1280, 3) <т (308, 665,3) </p>
т (720, 1280, 3) <т (307, 1144, 3) </p>
т (720, 1280, 3) <т (302, 739, 3) </p>
- это произошло только на GPU.На процессоре, каким бы ни было отношение длины к ширине, время увеличивается, когда размер изображения больше.
Кто-нибудь обнаружил эту проблему?