Отслеживание с Dlib в Jetson TX2 медленнее, чем в Nano - PullRequest
0 голосов
/ 10 октября 2019

У меня есть программа для обнаружения и отслеживания движущихся транспортных средств с некоторой визуализацией статистики. Программа хорошо оптимизирована для работы в режиме реального времени на Jetson Nano (для обнаружения используется механизм TensorRT). Я переместил тот же код + модели из Nano в TX2 с созданием новых файлов движка. Программа работает в 5-6 раз медленнее, чем Nano. Обычно TX2 имеет 2 дополнительных ЦП Денвера и должен быть быстрее. Я измеряю время обработки для обнаружения и отслеживания. Время обнаружения схоже, но отслеживание с помощью Dlib происходит медленнее. Я использую корреляционный трекер в среде Dlib.

(для TX2 и Nano):

  • Jetpack L4T 32.2.1
  • GPU ARCH (6.2 TX2)/ (5.3 Nano)
  • Скомпилированный OpenCV 4.1.1 CUDA YES (Скомпилирован из источника на SD-карте 128 ГБ (TX2) / внутреннее хранилище (Nano))
  • TensorRT 5.1.6.1
  • Dlib 19.17 (скомпилировано из источника во внутреннем хранилище)
  • Matplotlib 2.1.1 (установлено с pip3)
  • CUDA 10.0.326
  • cuDNN 7.5.0.56
  • VisionWorks 1.6.0.500n
  • Python 3.6.8

Вещи, которые я попробовал и потерпел неудачу:

  • все модели NVP на TX2
  • скомпилированный OpenCV с поддержкой TBB
  • использовать последнюю версию Dlib с CUDA / LAPACK / BLAS (19.18, выпущенный 2/3 недели назад): https://github.com/davisking/dlib/releases

Есть какие-нибудь идеи, я могу попытаться решить эту проблему?

Заранее спасибо

...