Для вашего Вопрос 1 : Каковы различия между предварительно обученными и пользовательскими моделями?
Это зависит от того, будете ли вы тренировать модель или использовать модель только для вывода .
Следовательно, когда вы используете модель для вывода это потребует очень маленькой памяти по сравнению с тренировкой модели.
Но когда вы тренируетесь модель, использующая Tensorflow GPU , это требует больше памяти по сравнению с обучением только на CPU, но с более быстрым временем выполнения , особенно при работе с архитектурами сложных моделей (ie. Faster RCNN), .
Это также заметно, когда модель использует вычислительные тяжелые слои подобно сверточные слои , так как ускорение вычислений будет больше дра c по цене больше памяти .
Вопрос 2: Есть ли способ запустить модель с 1060? Или есть какие-либо параметры batch_size или аналогичные для изменения для тестирования?
При тестировании или выводе data_length обычно произвольно , вы можете проверить это, когда input_shape = (None, ##,##)
первый параметр None
. Это означает, что модель будет принимать данные с любой другой длиной lowest data_length = 1
.
Это означает, что вы можете использовать batch_size только когда явно определены в форме ввода ie. (None, BATCH_SIZE, ##, ##)
или передать модель с данными с длиной batch_size ie. (BATCH_SIZE, ##, ##)
.
Один из способов избежать ошибки памяти - изменить параметр batch_size
из model.predict и model.train до более низкого значения, это также увеличит вашу модель точность , но будет тренироваться дольше .
Еще один чтобы преобразовать ваш набор данных в Генератор наборов данных , который кэширует ваших данных, а не загружает их непосредственно в вашу память .
Вы можете прочитать больше о Построение входных конвейеров в Tensorflow по этой ссылке .