Я применяю вывод к очень большим изображениям и использую собственный скрипт для разделения изображения на плитки и вывода этих плиток.
В Nvidia DIGITS, после тренировки с изображениями 1000x1000 (или 1024, или 1088), я могу применить вывод к изображениям любого размера или размера после изменения файла deploy.prototxt. Таким образом, я могу использовать максимально доступную память GPU. Размер плитки может достигать 5000x500, без каких-либо проблем (есть опция «не изменять размер» на экране вывода, я использую ее для хороших результатов).
Теперь я решил перейти на TensorRT и хотел тренировать свой набор данных с любыми приличными моделями Tensorflow (быстрее r-cnn и т. Д.) Для более высокой точности.
Но, несмотря на все поиски, я не смог найти аналогичное решение для Obj. Det. модели, доступные для Tensorflow.
Для моделей с тензорным потоком;
можно ли обучить любую доступную модель с размером изображения 1000x1000 в Tensorflow, а затем сделать вывод с размером 5000x500 в TensorRT?
Должен ли я сохранять пропорции тренировочного образа для вывода?
Если я не могу применить вывод для таких больших размеров, что еще можно сделать, чтобы эффективно использовать всю доступную память GPU (11 ГБ) в одном выводе?
По сути, я ищу максимально подходящий размер изображения для доступной памяти графического процессора. для О.Д. вывод в TensorRT, любые указания приветствуются.