Я работаю с довольно большой сетью (98 миллионов параметров), я использую обратный вызов Keras ModelCheckPoint, чтобы сохранить мои веса следующим образом: когда я перезагружаю свои сохраненные веса с помощью keras, я вижу, что операция загрузки добавляет примерно 10 операций на слой в моем графике. Это приводит к огромному увеличению памяти моей общей сети. Это ожидаемое поведение? И если да, есть ли какие-нибудь известные обходные пути?
Детали: Я использую: tf.keras.callbacks.ModelCheckpoint
с "save_weights_only=True"
в качестве аргумента для сохранения весов
Код для загрузки:
model.load_weights(path_to_existing_weights)
где модель - это пользовательская модель keras.
Я использую Tensorflow 1.14
и Keras 2.3.0
У кого-нибудь есть идеи?