Я новичок в плате Jetson Tegra X2.
У меня есть план, чтобы запустить мои модели tenorflow-gpu на плате TX2 и посмотреть, как они там работают.Эти модели проходят обучение и тестируются на GTX GPU.
На плате tx2 в Jetpack full отсутствует тензор потока.Так что требуется создать / установить tenorflow, который я изучил и попробовал.Мои python-файлы train.py и test.py ожидают tennsflow-gpu.
Теперь я подозреваю, является ли правильное направление строительства tenorflow-gpu на плате tx2?
О, на TX2 есть Nvidia TensorRT, который выполнит часть работы, но как?и это правильно?
Будет ли работать tenorflow и tenorRT вместе, чтобы заменить tenorflow-gpu?но как?тогда какие изменения мне нужно будет внести в мой поезд и протестировать файлы python?
Действительно ли мне вообще нужно создавать тензор потока для tx2?Мне нужен только вывод, я не хочу проводить там обучение.
Я изучал разные блоги и пробовал несколько вариантов, но сейчас все немного запутано.
Мой простой вопрос:
Какие шаги нужно сделать, чтобы сделать вывод на плате Jetson TX2 с помощью моделей глубокого обучения TensorFlow-GPU, обученных на машине GTX?