Поскольку я вызываю model.fit () один раз для каждой мини-партии, я получаю сотни файлов событий Tensorboard.Я надеюсь, что есть какой-то способ (а) контролировать скорость, с которой выводится информация, и (б) поместить все это в один составной файл событий, как я могу получить при использовании прямого Tensorflow.
Я столкнулся с той же проблемой, когда пытался учиться с подкреплением.На этот раз необходимость ручного дозирования обусловлена размером и сложностью входных данных.(Входные данные в 9 гигабайт включают разрывы, требующие пропуска определенных записей, чтобы избежать обучения на половине одной последовательности и половине другой.)
Я пробовал это:
self.tensorboard = keras.callbacks.TensorBoard(log_dir=f"tensorboard/{int(time())}",
write_graph=False,
update_freq=10*BATCH_SIZE)
self.tensorboard.set_model(model)
[...]
self.model.fit(
x = iBatch,
y = iLabels,
epochs=1,
batch_size=len(iLabels),
verbose=0
callbacks=[self.tensorboard])
Этоприводит к сотням крошечных файлов событий.Среди прочего, обратный вызов, похоже, игнорирует аргумент update_freq.